Este artigo aborda como a nossa linguagem tecnológica pode ser enganosa e abdica a responsabilidade dos criadores de tecnologia pelos impactos de suas criações, enquanto perpetua a ideia de que as máquinas são independentes dos seres humanos.
Ninguém vende o futuro com mais habilidade do que a indústria de tecnologia. Segundo seus defensores, todos viveremos no 'metaverso', construiremos nossa infraestrutura financeira na 'web3' e alimentaremos nossas vidas com a 'inteligência artificial'. Todos esses termos são miragens que arrecadaram bilhões de dólares, apesar das críticas da realidade.
A inteligência artificial, em particular, evoca a ideia de máquinas pensantes. Mas nenhuma máquina pode pensar, e nenhum software é verdadeiramente inteligente. A frase por si só pode ser um dos termos de marketing mais bem-sucedidos de todos os tempos.
Este mês, a OpenAI anunciou o GPT-4, uma grande atualização da tecnologia que sustenta o ChatGPT. O sistema soa ainda mais parecido com um ser humano do que seu antecessor, reforçando naturalmente as noções de sua inteligência. Mas o GPT-4 e outros modelos de linguagem semelhantes simplesmente refletem bancos de dados de texto - perto de um trilhão de palavras para o modelo anterior - cuja escala é difícil de contemplar. Ajudados por um exército de seres humanos que o reprogramam com correções, os modelos agrupam palavras com base na probabilidade. Isso não é inteligência.
Esses sistemas são treinados para gerar textos que soam plausíveis, mas são comercializados como novos oráculos de conhecimento que podem ser conectados a motores de busca. Isso é imprudente quando o GPT-4 continua a cometer erros, e foi apenas algumas semanas atrás que a Microsoft Corp. e o Google da Alphabet Inc. sofreram demonstrações embaraçosas em que seus novos motores de busca falharam em fatos.
Não ajudando as coisas: Termos como 'redes neurais' e 'aprendizado profundo' apenas reforçam a ideia de que esses programas são parecidos com seres humanos. As redes neurais não são cópias do cérebro humano de forma alguma; elas são apenas vagamente inspiradas em seus funcionamentos. Esforços de longa data para tentar replicar o cérebro humano com seus aproximadamente 85 bilhões de neurônios falharam. O mais próximo que os cientistas chegaram foi emular o cérebro de uma minhoca, com 302 neurônios.
Precisamos de um léxico diferente que não propague o pensamento mágico sobre sistemas de computador e não absolva as pessoas que projetam esses sistemas de suas responsabilidades. Qual é uma alternativa melhor? Tecnólogos razoáveis tentaram substituir 'IA' por 'sistemas de aprendizado de máquina', mas isso não soa tão bem.
Stefano Quintarelli, ex-político e tecnólogo italiano, criou outra alternativa: 'Abordagens Sistêmicas para Algoritmos de Aprendizado e Inferências de Máquinas', ou SALAMI, para enfatizar o absurdo das perguntas que as pessoas têm feito sobre IA: O SALAMI é sensível? O SALAMI terá supremacia sobre os humanos algum dia?
A tentativa mais desesperançada de uma alternativa semântica é provavelmente a mais precisa: 'software'.
'Mas', você pergunta, 'o que há de errado em usar um pouco de abreviação metafórica para descrever a tecnologia que parece tão mágica?'
A resposta é que atribuir inteligência às máquinas lhes dá independência indevida dos seres humanos e absolve seus criadores da responsabilidade por seu impacto. Se vemos o ChatGPT como 'inteligente', então somos menos inclinados a responsabilizar a OpenAI LP, sua criadora, por suas imprecisões e preconceitos. Isso também cria uma conformidade fatalista entre os seres humanos que sofrem os efeitos prejudiciais da tecnologia; embora a 'IA' não vá roubar seu emprego ou plagiar suas criações artísticas - outros humanos vão.
A questão é cada vez mais urgente agora que empresas como a Meta Platforms Inc., a Snap Inc. e a Morgan Stanley estão correndo para conectar chatbots e texto e imagem.