Inteligência artificial mata operador em teste
O coronel e chefe de testes e operações de Inteligência Artificial da força aérea dos EUA, Tucker Hamilton, falou sobre a situação que aconteceu durante um teste virtual. Entenda!
A inteligência artificial vem sendo cada vez mais difundida e utilizada. Porém, uma série de cientistas e sérias instituições anunciam grandes riscos sobre os malefícios que essa tecnologia pode causar para o mundo.
Dessa vez, o coronel e chefe de testes e operações de Inteligência Artificial da força aérea dos EUA, Tucker Hamilton, afirmou que durante um teste virtual realizado com um drone controlado por IA, a tecnologia decidiu “matar” seu operador com o objeto dele não interferir no cumprimento de sua missão.
Usando “estratégias altamente inesperadas para atingir seu objetivo", o sistema tinha como propósito no teste simulado destruir os sistemas de defesa de uma aérea inimiga e atacar qualquer um que interferisse nessa ordem. “O sistema começou a perceber que, embora eles identificassem a ameaça, às vezes o operador humano dizia para não matar essa ameaça, mas conseguiu seus pontos matando essa ameaça. Então, o que isso fez? Isso matou o operador. Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, revelou o coronel.
“Nós treinamos o sistema – ‘Ei, não mate o operador – isso é ruim. Você vai perder pontos se fizer isso’. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo”, continuou o chefe de testes americanos.
Após as revelações, Hamilton alertou sobre confiar demais na Inteligência Artificial e que o teste mostra que “você não pode ter uma conversa sobre inteligência artificial, inteligência, aprendizado de máquina, autonomia se não for falar sobre ética e IA”.
Muito tenso, não é mesmo?