La inteligencia artificial no es realmente inteligente y su uso puede absolver a los creadores de responsabilidad por su impacto. Necesitamos un nuevo lenguaje para describir la tecnología.
La industria tecnológica vende el futuro de una manera excepcional. Según sus defensores, todos viviremos en el 'metaverso', construiremos nuestra infraestructura financiera en 'web3' y alimentaremos nuestras vidas con 'inteligencia artificial'. Los tres términos son mirajes que han recaudado miles de millones de dólares, a pesar de la realidad.
La inteligencia artificial, en particular, sugiere la noción de máquinas pensantes. Pero ninguna máquina puede pensar y ningún software es verdaderamente inteligente. La frase sola puede ser uno de los términos de marketing más exitosos de todos los tiempos.
Este mes, OpenAI anunció GPT-4, una importante actualización de la tecnología que sustenta ChatGPT. El sistema suena aún más parecido a los humanos que su predecesor, reforzando naturalmente las nociones de su inteligencia. Pero GPT-4 y otros grandes modelos de lenguaje como él simplemente reflejan las bases de datos de texto, cerca de un trillón de palabras para el modelo anterior, cuya escala es difícil de contemplar. Ayudados por un ejército de humanos que lo reprograman con correcciones, los modelos combinan palabras en función de la probabilidad. Eso no es inteligencia.
Estos sistemas están entrenados para generar texto que suena plausible, sin embargo, se comercializan como nuevos oráculos de conocimiento que se pueden conectar a los motores de búsqueda. Esto es temerario cuando GPT-4 sigue cometiendo errores, y fue solo hace unas semanas que Microsoft Corp. y Google de Alphabet Inc. sufrieron demostraciones vergonzosas en las que sus nuevos motores de búsqueda fallaron en los hechos.
No ayudan términos como 'redes neuronales' y 'aprendizaje profundo' que solo refuerzan la idea de que estos programas son parecidos a los humanos. Las redes neuronales no son copias del cerebro humano de ninguna manera; solo están vagamente inspiradas en su funcionamiento. Los esfuerzos de larga data para tratar de replicar el cerebro humano con sus aproximadamente 85 mil millones de neuronas han fracasado. Lo más cercano que los científicos han llegado es emular el cerebro de un gusano, con 302 neuronas.
Necesitamos un léxico diferente que no propague el pensamiento mágico sobre los sistemas informáticos y no absuelva a las personas que diseñan esos sistemas de sus responsabilidades. ¿Cuál es una mejor alternativa? Los tecnólogos razonables han intentado durante años reemplazar 'IA' con 'sistemas de aprendizaje automático', pero eso no suena de la misma manera.
Stefano Quintarelli, un ex político italiano y tecnólogo, propuso otra alternativa, 'Enfoques Sistémicos para Algoritmos de Aprendizaje e Inferencias Mecánicas', para subrayar lo ridículo de las preguntas que la gente ha estado haciendo sobre la IA: ¿Es SALAMI consciente? ¿Alguna vez SALAMI tendrá supremacía sobre los humanos?
El intento más desesperado de una alternativa semántica es probablemente el más preciso: 'software'.
Pero, ¿qué hay de malo en usar un poco de abreviaturas metafóricas para describir la tecnología que parece tan mágica?
La respuesta es que atribuir inteligencia a las máquinas les da una independencia no merecida de los humanos y absuelve a sus creadores de la responsabilidad por su impacto. Si vemos a ChatGPT como 'inteligente', entonces somos menos propensos a intentar responsabilizar a OpenAI LP, su creador, por sus inexactitudes y sesgos. También crea una sumisión fatalista entre los humanos que sufren los efectos perjudiciales de la tecnología. Aunque 'IA' no te quitará el trabajo o plagiará tus creaciones artísticas, otros humanos lo harán.
El problema es cada vez más apremiante ahora que empresas desde Meta Platforms Inc. hasta Snap Inc. y Morgan Stanley se apresuran a conectar chatbots y texto e imágenes.