Se uma inteligência artificial cometesse um crime, como por exemplo, matar uma pessoa. Quem deveria ser responsabilizado pelo crime? A pessoa que a criou? Ou a própria máquina?
De acordo com especialistas, quando um fato como esse acontece, devem ser levados em consideração 3 cenários:
Primeiro, quando um crime é cometido por uma pessoa incapaz ou por um animal, ela não pode ser considerada culpada e nem as pessoas que instruíram essa pessoa ou animal.
Assim, um programa de inteligência artificial pode ser considerado um agente inocente, e nem o programador ou a pessoa que usa o programa poderiam ser responsabilizados.
O segundo cenário diz respeito quando uma ação pré-programada da inteligência artificial acaba resultando em um crime.
Um exemplo disso foi um fato que aconteceu no Japão, onde uma máquina inteligente utilizada em uma fábrica de carros matou um trabalhador enquanto tentava fazer reparos nela. O homem não desligou a máquina corretamente durante o reparo, e ela acabou o esmagando com um braço hidráulico.
A questão nesse cenário é se o programador da máquina sabia se isso poderia acontecer e se foram ou não feitas ações para evitar o acontecimento.
O terceiro cenário é quando fica claro que a inteligência artificial fez uma ação que poderia resultar em crime.
Um exemplo disso seria um carro autônomo que andasse acima do limite de velocidade da via. Em um caso como esse, a inteligência artificial poderia sim ser responsabilizada como culpada e seu dono poderia ser considerado inocente.
De uma coisa podemos ter certeza: cada vez mais assuntos como esse serão comuns e mais debatidos.