A proibição do ChatGPT na Itália é um sinal de alerta para a IA. A IA pode trazer muitos benefícios, mas é importante que os desenvolvedores sejam responsáveis e levem em consideração os riscos potenciais.

No dia 31 de março de 2023, a autoridade italiana de proteção de dados anunciou uma proibição imediata do uso do ChatGPT e uma investigação sobre o uso de dados pessoais pela ferramenta, que é derivada da 'internet como ela era em 2021'. Qual é o provável resultado dessa decisão, e é 'uma pequena decisão para o homem, mas um salto gigante e decisivo para a salvação da humanidade'? A inteligência artificial (IA) sempre foi tratada com suspeita, e o ritmo e o volume das preocupações levantadas estão atingindo novos patamares. Em si, as preocupações levantadas sobre o uso da IA e o nível em que ela pode substituir processos anteriormente operados por humanos demonstram o ritmo do avanço tecnológico. No entanto, esse avanço tecnológico foi realizado com uma abordagem 'olhos bem abertos', ou os tecnólogos correram de cabeça em uma parede - deixando de reconhecer os novos níveis de conscientização de risco digital que agora existem na sociedade e os riscos representados pelo avanço desenfreado do poderoso aprendizado de IA? Preocupações de liderança tecnológica e social Globalmente, a grande maioria das organizações reconhece que a IA tem uma inevitabilidade em relação ao seu lugar no futuro tecido de nossa sociedade. Os líderes mundiais discutem regularmente a tecnologia e seu uso em fóruns como o G7, o G20 e o Fórum Econômico Mundial, onde é discutida e reconhecida como uma tecnologia para o benefício futuro da sociedade. Isso é verdade, mas a que custo e risco? Qual é o maior risco - usar sistemas de IA poderosos e conscientes ou não alcançar o potencial de benefício social disponível a partir de seu uso? À medida que avançamos em direção a uma sociedade digitalmente nativa 5.0, é provável que as organizações que ignoram o potencial da IA possam ter dificuldades para sobreviver. Em vez disso, elas serão ultrapassadas por organizações que abraçam tecnologias emergentes e, por meio de uma gestão eficaz de riscos, permitem o pensamento futuro e as estratégias de negócios progressistas que são digitais por design. No entanto, a música ambiente sobre a IA está começando a mudar fundamentalmente. Além das ações da autoridade italiana de proteção de dados, um exemplo claro adicional desse pedido por maior clareza nos padrões de desenvolvimento de IA é o cofundador da OpenAI, Elon Musk, assinando uma carta aberta pedindo uma parada no treinamento de sistemas de IA poderosos por medo de uma ameaça à humanidade até que padrões de desenvolvimento para esses sistemas de IA sejam estabelecidos. O fato de a carta aberta não ser apenas assinada por Musk, mas também pelo cofundador da Apple, Steve Wozniak, é uma declaração clara de preocupação de alguns dos líderes tecnológicos mais proeminentes globalmente. O fato de a carta aberta ter alcançado quase 20.000 assinaturas de acadêmicos e tecnólogos líderes nas primeiras semanas de publicação é um testemunho da preocupação social em desenvolvimento. A motivação para a proibição da autoridade italiana de proteção de dados, agora em contato com vários de seus colegas europeus, incluindo os contrapartes irlandeses e britânicos, estende-se além da disputa competitiva dada a patrocínio e investimento do ChatGPT da OpenAI pela Microsoft. Precognição dos riscos da IA Nos níveis atuais de operação, os sistemas de IA não se estenderam aos níveis de precognição identificados no filme Minority Report de Steven Spielberg de 2002, baseado na novela de ficção científica de 1956 de Philip K. Dick do mesmo nome. No entanto, os maiores riscos hoje se concentram nos seres humanos e nos impactos do desenfreado aprendizado de IA.