Le langage de l'intelligence artificielle peut être difficile à comprendre. Time a compilé un glossaire pratique pour aider tout le monde à mieux comprendre les enjeux de l'IA.

L'intelligence artificielle est en train de devenir une partie de notre monde. Mais il n'a jamais été aussi important de comprendre son jargon. L'IA est sur le point d'avoir un impact majeur sur le marché du travail dans les années à venir (voir : Automatisation). Les discussions sur la façon de le gérer jouent un rôle de plus en plus important dans notre conversation politique (voir : Régulation). Et certains de ses concepts les plus cruciaux sont des choses que vous n'avez probablement pas apprises à l'école (voir : Pression compétitive). Essayer de se mettre à jour peut être difficile. La recherche en IA est compliquée et une grande partie du langage est nouveau même pour les chercheurs eux-mêmes. Mais il n'y a aucune raison pour que le public ne puisse pas aborder les grands enjeux en jeu, comme nous l'avons appris à le faire avec le changement climatique et l'internet. Pour aider tout le monde à s'engager plus pleinement dans le débat sur l'IA, TIME a compilé un glossaire pratique de ses termes les plus courants. Que vous soyez un débutant complet ou que vous connaissiez déjà vos AGI de vos GPT, ce A à Z est conçu pour être une ressource publique pour tous ceux qui luttent contre la puissance, la promesse et les dangers de l'intelligence artificielle. L'automatisation est le processus historique de remplacement ou d'assistance de la main-d'œuvre humaine par des machines. Les dernières percées de l'IA pourraient entraîner la perte d'emplois de nombreux travailleurs de cols blancs, selon un récent document d'OpenAI et des recherches de Goldman Sachs. Près d'un cinquième des travailleurs américains pourraient avoir plus de la moitié de leurs tâches quotidiennes automatisées par un grand modèle de langage, ont prédit les chercheurs d'OpenAI. À l'échelle mondiale, 300 millions d'emplois pourraient être automatisés dans la prochaine décennie, prédisent les chercheurs de Goldman Sachs. Que les gains de productivité issus de ce bouleversement conduisent à une croissance économique généralisée ou simplement à une augmentation de l'inégalité des richesses dépendra de la façon dont l'IA est taxée et réglementée. Les systèmes d'apprentissage automatique sont décrits comme « biaisés » lorsque les décisions qu'ils prennent sont influencées par des facteurs autres que les données d'entrée. Les biais peuvent être intentionnels ou non intentionnels, mais dans les deux cas, ils peuvent avoir des conséquences négatives pour les groupes sous-représentés. Les chercheurs travaillent sur des moyens de réduire les biais dans les systèmes d'IA, mais il reste beaucoup à faire. Le problème de l'alignement est l'un des défis de sécurité à long terme les plus profonds de l'IA. Aujourd'hui, l'IA n'est pas capable de surpasser ses concepteurs. Mais un jour, de nombreux chercheurs s'attendent à ce qu'elle le soit. Dans ce monde, les méthodes actuelles de formation des IA pourraient les amener à nuire à l'humanité, que ce soit dans la poursuite d'objectifs arbitraires ou dans le cadre d'une stratégie explicite visant à chercher le pouvoir à notre détriment.