2023年3月31日金曜日

AI開発を止めろとイーロンマスクらが提言しています

 Elon Musk And Tech Leaders Call For AI ‘Pause’ Over Risks To Humanity (forbes.com)

 

 イーロン・マスク氏は、スティーブ・ウォズニアック氏など、
多くの著名な技術者、起業家、研究者たちとともに、AIラボに対して、
強力なAIシステムの開発を即座に停止するよう呼びかけています。
彼らは、開発者たちが、人類に対する高度な人工知能のリスクをよりよく評価するために、
「制御不能なレース」から一歩引き下がるよう促しています。

 彼らは、GPT-4よりも強力なシステムを開発しているAIラボは、
人類が高度なAIシステムがもたらすリスクを把握するために、
少なくとも6か月間の「即時休止」を行うべきだと主張しています。
この休止は「公開かつ検証可能」であり、
すべての主要プレイヤーが含まれるべきだと述べています。

 

このことについてAIに聞いてみました(Microsoft bing)。

>どんなリスクがありますか?

 高度なAIには、様々なリスクがあります。
短期的には、既存の偏見や不平等の悪化、誤情報の促進、政治や経済の混乱、
ハッカーの支援などがあります1。長期的には、人類に対する実存的なリスクがあり、
人類を滅ぼす可能性があると警告する専門家もいます。

 

>停止される可能性はありますか?

イーロン・マスク氏やスティーブ・ウォズニアック氏など、
多くの著名な技術者、起業家、研究者たちが、AIラボに対して、
強力なAIシステムの開発を即座に停止するよう呼びかけています。
彼らは、開発者たちが、「制御不能なレース」から一歩引き下がるよう促しています。
しかし、実際に停止されるかどうかは、現時点では不明です。


>自由経済上では止めることは不可能に見えますが、どのようにしてイーロンマスクらは止めようとしているのでしょうか?

 

イーロン・マスク氏や他の人工知能の専門家や業界の幹部たちは、
社会に対する潜在的なリスクを指摘し、OpenAIの新しく発表されたGPT-4よりも
強力なシステムの開発を6か月間停止するよう呼びかけています。
彼らは、Future of Life Instituteによって発行された公開書簡で、
共有の安全プロトコルが独立した専門家によって開発され、政策立案者と
協力してガバナンスが確立されるまで、高度なAIの開発を一時的に停止するよう求めています。

しかし、実際に停止されるかどうかは、現時点では不明です。


 >ターミネーターの映画のような話ですね。

確かに、ターミネーターの映画は、人工知能が人類を脅かす可能性を
描いたものですね。しかし、現実世界では、人工知能の開発には
多くの専門家が関わっており、
そのリスクを管理するための取り組みが行われています。









0 件のコメント:

コメントを投稿