Dúvidas surgem sobre a eficácia do chatbot de IA Bard da Google, à medida que a empresa expande sua implantação em vários produtos.
Conversas vazadas pela Bloomberg revelam incertezas dentro da Google sobre a efetividade do Bard e se o investimento maciço necessário vale a pena.
Funcionários do Google tem questionado a eficácia do Bard em um chat exclusivo no Discord. Gerentes de produto, designers e engenheiros debatem se os recursos necessários para o Bard são justificados.
Alguns questionam a confiabilidade da saída do modelo de linguagem grande (LLM) e expressam a necessidade de verificação independente das informações geradas pelo Bard.
Outros levantam preocupações sobre os custos de desenvolvimento, o potencial de disseminação de desinformação e os requisitos computacionais massivos do projeto.
O Google lançou o Bard em março como concorrente do chatbot ChatGPT da OpenAI, adicionando novas capacidades nos meses seguintes, como análise de imagens e resposta em diferentes idiomas.
No entanto, a recente expansão do Bard para produtos como Gmail, Maps e YouTube tem sido marcada por críticas. A implantação tem sido acusada de fornecer informações falsas e recomendações perigosas.
Críticos internos e externos argumentam que o Google está se apressando para acompanhar os concorrentes, enquanto negligencia questões éticas e o tratamento de contratados mal remunerados que treinam o Bard.
A gigante de Mountain View afirma que as discussões sobre as forças e fraquezas do Bard fazem parte do processo de aprimoramento do produto com base no feedback dos usuários.
Em relação aos contratados, um porta voz da empresa diz que “simplesmente não é o empregador de nenhum desses trabalhadores. Nossos fornecedores, como empregadores, determinam suas condições de trabalho, incluindo salários e benefícios, horas e tarefas atribuídas e mudanças de emprego – e não o Google.”