Durante a conferência anual de desenvolvedores I/O, a Google anunciou novos modelos de IA que serão incorporados à Vertex AI, sua plataforma de aprendizado de máquina totalmente gerenciada.
Entre eles está o Imagen, um modelo de texto para imagem que pode gerar e editar imagens, bem como escrever legendas para imagens existentes.
A interface do usuário do modelo Imagen é acessível a partir do que o Google chama de Model Garden, uma seleção de modelos desenvolvidos pela Google ao lado de modelos de código aberto.
Usando prompts como “uma bolsa roxa”, os clientes podem gerar uma série de imagens candidatas.
Ferramentas de edição e prompts de acompanhamento refinam as imagens geradas pelo Imagen, ajustando, por exemplo, a cor dos objetos representados.
O Vertex também oferece o aprimoramento de imagens por escalonamento, além de ajustes finos que permitem que os clientes orientem o Imagen para certos estilos e preferências.
Além disso, o Imagen também pode gerar legendas para imagens, com a opção de traduzir essas legendas usando o Google Translate.
Para cumprir as regulamentações de privacidade, as imagens geradas que não foram salvas são excluídas em até 24 horas.
A Vertex AI também oferece um serviço de aprendizado por reforço de feedback humano (RLHF) para ajudar as organizações a manter o desempenho de seus modelos ao longo do tempo e implantar modelos mais seguros e precisos em produção.
Embora o Imagen seja uma ferramenta poderosa, há desafios éticos e legais associados a todas as formas de IA generativa, incluindo a questão dos direitos autorais das imagens usadas para treinar os modelos.
O Google afirma que realiza amplas revisões de governança de dados para garantir que seus modelos sejam livres de reivindicações de direitos autorais.
A empresa também afirma que está comprometida em treinar modelos de maneira ética e responsável.
Para lidar com o problema do conteúdo tóxico ou tendencioso que pode ser gerado por sistemas de IA generativa, a Google está lançando o RLHF como um serviço gerenciado na Vertex AI.
O RLHF treina um “modelo de recompensa” diretamente a partir do feedback humano, como pedir a trabalhadores contratados que classifiquem as respostas de um chatbot de IA.
O modelo de recompensa é então usado para otimizar um modelo de IA generativa como o Imagen.
O Google afirma que o RLHF ajudará as organizações a implantar modelos mais seguros e mais precisos em produção.