L'utilisation de l'Intelligence Artificielle (IA) soulève de plus en plus de préoccupations quant à ses impacts sur la société. Cet article examine la question de savoir si les technologues ont adopté une approche consciente des risques liés à l'IA ou s'ils ont ignoré les nouveaux niveaux de sensibilisation aux risques numériques dans la société. L'article aborde également les différents points de vue sur l'importance de l'IA pour l'avenir de la société.

L'Intelligence Artificielle (IA) est un sujet qui suscite depuis toujours la suspicion. Les inquiétudes suscitées par l'utilisation de l'IA et le niveau auquel elle peut remplacer les processus humains précédents témoignent de la rapidité de l'avancement technologique. Toutefois, les technologues ont-ils adopté une approche consciente des risques liés à l'IA ou ont-ils ignoré les nouveaux niveaux de sensibilisation aux risques numériques dans la société ? Globalement, la plupart des organisations reconnaissent que l'IA a une place inéluctable dans le tissu social et économique de notre société. Les dirigeants mondiaux discutent régulièrement de la technologie et de son utilisation lors de forums tels que le G7, le G20 et le Forum économique mondial, où elle est discutée et reconnue comme une technologie pour le bénéfice futur de la société. Mais, à quel coût et risque ? Quel est le risque plus important : utiliser des systèmes IA puissants et conscients ou ne pas atteindre le bénéfice potentiel de leur usage ? Alors que nous nous dirigeons vers une société numérique native, il est probable que les organisations qui ignorent le potentiel de l'IA auront du mal à survivre. Au lieu de cela, elles seront dépassées par les organisations qui embrassent les technologies émergentes et, grâce à une gestion efficace des risques, permettent une réflexion future et des stratégies commerciales progressives qui sont conçues numériquement. Toutefois, l'opinion sur l'IA commence à changer fondamentalement. Outre les actions de l'autorité italienne de protection des données, un autre exemple clair de cet appel à une plus grande clarté dans les normes de développement de l'IA est la signature par le cofondateur d'OpenAI, Elon Musk, d'une lettre ouverte appelant à un arrêt de la formation de puissants systèmes IA par crainte d'une menace pour l'humanité jusqu'à ce que des normes de développement pour de tels systèmes IA soient établies. Le fait que la lettre ouverte ne soit pas seulement signée par Musk, mais aussi par le cofondateur d'Apple Steve Wozniak, est une déclaration claire de préoccupation de la part de certains des leaders technologiques les plus importants dans le monde. Les motifs de l'interdiction de l'autorité italienne de protection des données, qui est maintenant en liaison avec plusieurs de ses homologues européens, notamment les homologues irlandais et britanniques, vont au-delà de la bataille concurrentielle donnée par le parrainage et l'investissement de ChatGPT d'OpenAI par Microsoft. L'utilisation de l'IA soulève de plus en plus de préoccupations quant à ses impacts sur la société. Les technologues doivent adopter une approche consciente des risques liés à l'IA afin de tirer parti de son potentiel pour l'avenir de la société. L'IA est un outil puissant qui peut être utilisé pour le bien de la société, mais il doit être développé de manière responsable et éthique. Les inquiétudes croissantes et les appels à une plus grande clarté dans les normes de développement de l'IA ne devraient pas être ignorés. Nous devons travailler ensemble pour trouver un équilibre entre les avantages de l'IA et les risques qu'elle présente pour l'avenir de l'humanité.