Um grupo de mais de 1.000 especialistas em inteligência artificial, incluindo Elon Musk e Steve Wozniak, assinaram uma carta aberta pedindo uma pausa no desenvolvimento de sistemas de IA mais poderosos do que o GPT-4, o último modelo de aprendizado profundo da OpenAI.
Os signatários argumentam que é necessário desenvolver protocolos de segurança para orientar o futuro dos sistemas de IA e que esses sistemas devem ser desenvolvidos apenas quando seus efeitos positivos estiverem garantidos e os riscos forem gerenciáveis.
A carta adverte que as ferramentas de IA desenvolvidas em laboratórios não podem ser confiavelmente controladas, previstas ou entendidas neste estágio e que há riscos como propaganda e mentiras espalhadas por meio de artigos gerados por IA que parecem reais, bem como a possibilidade de que programas de IA superem os trabalhadores e tornem empregos obsoletos.
Os especialistas pedem uma pausa conjunta para desenvolver e implementar um conjunto de protocolos de segurança compartilhados para o design e desenvolvimento avançados de IA, que sejam rigorosamente auditados e supervisionados por especialistas independentes de fora.
O Instituto Future of Life, que emitiu a carta aberta, é financiado principalmente pela Fundação Musk, bem como pelo grupo de eficácia altruísta Founders Pledge e pela Silicon Valley Community Foundation.
Os signatários da carta ainda incluem o CEO da Stability AI, Emad Mostaque, pesquisadores da DeepMind, de propriedade da Alphabet, e os pesos pesados da AI, Yoshua Bengio e Stuart Russell.
Desde o lançamento do ChatGPT da OpenAI no ano passado, rivais aceleraram o desenvolvimento de modelos de linguagem semelhantes e empresas integraram modelos gerativos de IA em seus produtos.