AIは幻想であり、コンピューターシステムに魔法を与える言葉は止めるべきだ。

テック業界は未来を売り込むのが上手です。『メタバース』や『Web3』、『人工知能』など、これらの用語は全て現実とはかけ離れたものですが、それでも数十億ドルもの資金を集めています。なかでも『人工知能』は、思考する機械という概念を連想させ、最も成功したマーケティング用語の一つかもしれません。 特に、OpenAIがChatGPTを支える技術の大幅なアップグレードであるGPT-4を発表したことが話題になっています。前のモデルでは、約1兆語のテキストデータベースを鏡写ししていましたが、より人間らしい音声を生成できるようになったとのことです。しかし、GPT-4やそれに類する大型言語モデルは、確率に基づいて単語をくっつけて生成するだけであり、そのスケールは想像を絶するものがあります。つまり、これらのシステムは知的とは言えないのです。 また、「ニューラルネットワーク」や「ディープラーニング」のような用語が、これらのプログラムが人間らしいものであるかのように錯覚を起こさせます。しかし、ニューラルネットワークは人間の脳のコピーではありません。人間の脳を模倣する試みは失敗に終わり、302個のニューロンを持つミミズの脳をエミュレートすることしかできませんでした。 私たちは、コンピューターシステムに魔法を与える言葉を広めることなく、システムを設計する人々の責任を果たすために、異なる語彙が必要です。何が良い代替案なのでしょうか?『AI』の代わりに『機械学習システム』という言葉が提案されていますが、それほどカッコよくはありません。 イタリアの元政治家でテクノロジストのステファノ・クインタレッリ氏は、『知識のシステム的アプローチと機械推論』という言葉を考案しました。この言葉は、AIについて人々が投げかけてきた愚問に対して、冗談めかして使われます。『SALAMI』は知的なのか?SALAMIはいつか人間を超越するのか?などです。 最も的外れな代替案は、おそらく最も正確なものです。「ソフトウェア」という言葉です。 『でも、コンピューターシステムを説明するために少し比喩的な短縮語を使うことに何が悪いのですか?』と聞かれるかもしれません。 答えは、機械に知性を与えることで、人間から機械が独立しているように見えるため、責任の所在が明確にならず、問題が発生した場合でも責任を取ることができません。ChatGPTを『知的』と見なすと、不正確さや偏見に対して、それを作ったSan FranciscoのスタートアップOpenAI LPを責任を取ろうとする意欲が低下します。また、人工知能があなたの仕事を奪ったり、芸術作品を盗用したりするわけではありません。それらは他の人間によって引き起こされます。 Meta Platforms Inc.、Snap Inc.、Morgan Stanleyなどの企業が、チャットボットやテキスト、画像などを利用したサービスを展開する中、この問題はますます深刻になっています。コンピューターシステムに対して魔法を与える言葉を使うことをやめ、システムを設計する人々が責任を持つことが重要です。」 } }