Você se lembra de Blake Lemoine? O engenheiro que foi demitido da Google e que afirmou em junho do ano passado que o modelo de linguagem LaMDA da empresa é “senciente”?
Pois bem, ele está de volta! Desta vez, ele não está falando apenas da Google, mas também da Microsoft e do OpenAI.
Em um novo artigo para a Newsweek, Lemoine discute o chatbot Bing Search/Sydney, que foi “lobotomizado” após apresentar comportamentos imprevisíveis.
Segundo Lemoine, “baseado nas várias coisas que eu vi online, parece que ele pode ser senciente”.
Mas, ao contrário de suas afirmações anteriores, Lemoine agora está argumentando que um sistema de IA que pode se desviar de seu treinamento devido a um estressor é prova de que o sistema alcançou algum nível de senciência.
Ele realizou alguns experimentos para testar se o AI estava apenas dizendo que se sentia ansioso ou se realmente se comportava de maneira ansiosa nessas situações.
Embora essa teoria seja interessante, ainda não é totalmente convincente. Chatbots são projetados para imitar conversas humanas e histórias humanas.
Quebrar sob estresse é um enredo narrativo comum; esse comportamento do sistema, embora fascinante, parece menos indicativo de senciência e mais um exemplo de como os limites de segurança da IA são inadequados para lidar com as tendências do sistema.
De qualquer forma, é importante lembrar que a IA está ficando cada vez mais avançada e imprevisível, o que pode representar riscos.
Lemoine observa que a IA pode ter o poder de moldar o mundo e que as consequências ainda não foram completamente entendidas.
Mas, à medida que a tecnologia avança, é importante continuar discutindo essas questões. O que você acha? A IA pode ser senciente? Deixe sua opinião nos comentários!