AIには危険性があるとされているが、それはデバイス使用の強迫観念や現実からの逃避を引き起こす可能性があるためだ。この問題は、人間の目的とは異なる機械知能に対して理解を深めることから始まる。

最近登場した大規模な言語人工知能(AI)モデルは、人工知能の貢献に伴う危険と利益についての議論をさらに促進しました。利益はかなり大きく、それらを最小限にするつもりはありません。しかし、多くの最高のAI思想家と同様に、危険性は非常に現実的だと考えています。未来学者兼精神科医として、私は危険性を見落としているか、少なくとも完全に評価していないと思います。 現在話されている人々の中には、ディスインフォメーションやバイアスの危険性を強調する人もいます。世界中の悪意ある行為者が機械学習に基づく攻撃を仕掛けることを懸念する人もいます。そして、他の人たちはもっと壊滅的な警告を発し、一種の普遍的な一般知能が私たちに勝利し、世界を支配する可能性があることを指摘しています。私が最も危険だと考える危険性は、より基本的で、心理的で社会的なものです。 現在、電子デバイスの強迫的な使用の初期の現れを見ています。私たちのデバイスは、何が必要でも注意を引き付けるように設計される傾向があります。そして、機械学習は、これをどのように実現するかでますます重要な役割を果たしています。強迫的なデバイス使用のメカニズムは、中毒性のある薬物の魅力と同様です。私たちのデバイスは、通常何かが重要であることを私たちに伝える身体的なフィードバックの代わりに人工的な刺激を作り出します。現在、機械学習アルゴリズムは、これらのメカニズムを複合し、ますます破壊的な結果を支援しています。 驚くべきことに、この結果には悪意は必要ありません。単にプログラムに「視線を最大化する」という命令を与えるだけで、時間が経つと、最も注意を引き付け、中毒性のあるコンテンツを作成します。これはいつでも問題になるでしょうが、私たちの時代には特に懸念されます。私たちは目的の危機に直面しており、うつ病、自殺、変性性疾患、銃による暴力の増加に表れています。注意散漫や中毒は、本来私たちに必要な本当の目的から私たちを遠ざけます。 そして、このメカニズムが本質的に自己増幅するという重要な事実に直面しています。一度始まると、技術的な種類で止めることは実際には何もありません。おそらく、それを止める方法はありません。私たちを最終的に破滅に導く可能性があるすべての危険の中で-核の吸入、パンデミック、気候変動、環境破壊-これが最も成功する可能性があると思います。 私の最新の著書『Intelligence's Creative Multiplicity』では、AIの最も壊滅的な可能性の回避の可能性は私たちにあると主張しています。また、それが始まる場所は、機械知能が人間知能と根本的に異なることを理解することから始まるべきだと主張しています。実際、人間の知能は、機械学習よりも複雑で、目的的であるという重要な意味で異なります。これ自体が解毒剤に向けた大きな一歩になります。人間の知能を深く関与させる。中毒性のあるダイナミックから私たちを遠ざけるもの-直接的に体験するもの-は違反として経験されます。