O CEO do Google, Sundar Pichai, afirma que a Inteligência Artificial (IA) pode ser prejudicial se mal utilizada e pede uma regulamentação global semelhante aos tratados usados para regular o uso de armas nucleares.
Sundar Pichai, CEO do Google, afirmou que as preocupações com a Inteligência Artificial o mantêm acordado à noite e que a tecnologia pode ser "muito prejudicial" se implantada incorretamente. Ele pediu um quadro regulatório global para a IA, semelhante aos tratados usados para regular o uso de armas nucleares, ao mesmo tempo em que alertou que a competição para produzir avanços na tecnologia poderia levar a preocupações com a segurança sendo deixadas de lado. Pichai disse que o lado negativo da IA lhe dava noites inquietas. "Pode ser muito prejudicial se implantado incorretamente e ainda não temos todas as respostas - e a tecnologia está se movendo rapidamente. Então, isso me mantém acordado à noite? Absolutamente", afirmou ele.
O CEO do Google acrescentou que a IA poderia causar danos por sua capacidade de produzir desinformação. "Será possível com a IA criar um vídeo facilmente. Onde Scott [Pelley, o entrevistador da CBS] ou eu estamos dizendo algo que nunca dissemos. E pode parecer preciso. Mas, em uma escala social, pode causar muito dano", disse ele. Pichai acrescentou que a versão de sua tecnologia de IA agora disponível ao público, por meio do chatbot Bard, era segura. Ele acrescentou que o Google estava sendo responsável ao reter versões mais avançadas do Bard para testes.
O CEO do Google afirmou que governos precisariam elaborar quadros globais para regulamentar a IA à medida que ela se desenvolvesse. No mês passado, milhares de especialistas em inteligência artificial, pesquisadores e patrocinadores - incluindo o proprietário do Twitter, Elon Musk - assinaram uma carta pedindo uma pausa na criação de "gigantes" de IA por pelo menos seis meses, diante de preocupações de que o desenvolvimento da tecnologia pudesse sair de controle. Pichai disse que quadros semelhantes aos usados para regular o uso de armas nucleares seriam necessários.
O CEO do Google admitiu que a sociedade parecia não estar pronta para avanços rápidos em IA. Ele disse que havia uma "discrepância" entre o ritmo em que a sociedade pensa e se adapta às mudanças, e o ritmo em que a tecnologia está avançando. Apesar disso, Pichai afirmou que o Google era responsável e estava retendo versões mais avançadas do Bard para testes. A IA é o futuro, e é responsabilidade da sociedade garantir que ela seja regulamentada e usada para o bem comum.