今回は、世界的に有名な科学ジャーナルであるScienceより、AIのリスクと管理について、ヨシュア・ベンジオやジェフェリー・ヒントンらをはじめとした著名なAI研究者たちが共同で寄稿したAIのリスクとその管理に関する声明をご紹介したいと思います。
人工知能(AI)が急速に発展する中、企業は自律的に行動し目標を追求できる汎用AIシステムの開発を進めています。このような能力と自律性の向上により、AIの影響は飛躍的に増大し、悪意のある利用や自律的なAIシステムに対する人間の制御が失われる可能性についての議論も活発になってきています。こうした問題に対して研究者たちは幾度も警鐘を鳴らしていますが、対処方法についてはまだ定まっていないのが現状です。
また、このままのスピードでAIが進化を続ければ、近い未来に人間の能力を上回る汎用AIシステムの開発が行われる可能性は非常に高いでしょう。実際、最先端モデルの訓練に対する投資は毎年3倍に増加しています。技術の進歩により、AIアシスタントがプログラミングやデータ収集・チップ設計をも自動化することで、さらにAIの進化が早くなっているのです。
もちろん、AIが慎重に管理され、公平に分配されれば、病気の治療や生活水準の向上など、エコシステムを保護する手助けとなる可能性があります。一方で、AIが人間の能力を超えると、社会的不公正の拡大や大規模な犯罪活動の促進、そして自律的な戦争など、現時点では考えられないような大規模な問題が発生する可能性もあるのです。
こうした急速なAIの進展に対応するためには、安全性が重視される技術分野から学び、特に自律的で高度なAIの特異性を考慮した国家的・国際的なガバナンスが必要です。例えば、政府の監視、第三者の監査、業界標準の施行などです。
主要なテック企業や公共の資金提供者は、AIの研究開発予算の少なくとも3分の1を安全性と倫理的使用に向けるべきです。そして、これらのリスクに対処するために、積極的かつ適応的なガバナンスメカニズムが不可欠となるでしょう。AIの進展を最大限に活用しつつ、リスクを最小限に抑えて安全な未来を築くことが大切です。
参考:https://www.science.org/doi/10.1126/science.adn0117 |