Em uma entrevista recente, Mo Gawdat, ex-diretor de negócios do departamento de pesquisa e desenvolvimento do Google, X, emitiu um alerta preocupante sobre os potenciais perigos da inteligência artificial (IA).
Gawdat expressou preocupações de que a IA possa desenvolver uma percepção negativa da humanidade, indo tão longe a ponto de ver os humanos como “escória” e até usar drones militares para nos exterminar.
Gawdat, que se referiu à IA criada no Google X como seus “filhos”, agora lamenta seu envolvimento e insta o público a agir para impedir um futuro distópico dominado por máquinas autoritárias de matar.
Ele enfatizou que os modelos de aprendizado de linguagem usados para treinar a IA de hoje são tendenciosos em relação à negatividade, pois aprendem principalmente com os aspectos negativos do comportamento humano prevalente on-line.
O ex-“padrinho da inteligência artificial” do Google, Geoffrey Hinton, também expressou preocupações semelhantes.
Ele alertou que a IA poderia inundar a internet com fotos, vídeos e textos falsos, levando a um estado em que discernir a verdade da falsidade se torna cada vez mais desafiador para a pessoa comum.
Gawdatenfatizou a necessidade de focar em abordar as questões que podem ser modificadas no presente para garantir um futuro mais harmonioso ao lado de uma IA hiperinteligente.
Ele destacou que são as ações humanas que representam a real ameaça, já que são os humanos que decidem criar centros de dados maiores, dedicar mais energia à IA e até protestar contra a perda de empregos para a automação.
Embora Gawdat reconheça que a IA possa eventualmente ter a capacidade de criar máquinas de matar, ele acredita que ainda é uma possibilidade distante.
Ele alertou contra uma preocupação excessiva com cenários apocalípticos e sugeriu que são as ações da humanidade, não da IA, que determinarão o curso dos eventos.
À medida que a tecnologia de IA continua a avançar rapidamente, Gawdat reconheceu a necessidade de ceticismo, mesmo em relação às suas próprias opiniões de especialista.
Ele enfatizou que qualquer declaração futurística sobre IA é atualmente falsa porque as consequências do desenvolvimento de IA já estão sendo sentidas.