AIリーダーらが公開書簡で「絶滅の危険」を警告
AI安全センター(CAIS)は最近、人工知能分野の著名人が署名した声明を発表し、この技術が人類に及ぼす潜在的な危険性を強調した。
声明では、「パンデミックや核戦争など他の社会規模のリスクと並んで、AIによる絶滅のリスクを軽減することが世界的な優先事項であるべきだ」と主張している。
ジェフリー・ヒントン氏やヨシュア・ベンジオ氏などの著名な研究者やチューリング賞受賞者、またサム・アルトマン氏、イリヤ・スツケヴァー氏、デミス・ハサビス氏などのOpenAIとDeepMindの幹部らが声明に署名した。
CAIS の書簡の目的は、AI に関連する緊急のリスクに関する議論を開始することです。この書簡は、業界全体から支持と批判の両方を集めています。これは、イーロン・マスク、スティーブ・ウォズニアック、および 1,000 人以上の専門家が署名した、AI の「制御不能な」開発の停止を求めた以前の公開書簡に続くものです。
最近の声明は簡潔ではあるものの、AIの定義に関する具体的な詳細は示されておらず、リスクを軽減するための具体的な戦略も提示されていない。しかし、CAISはプレスリリースで、その目的はAIリスクを効果的に管理する安全策と制度を確立することであると明言した。
OpenAIのCEOサム・アルトマン氏は、AI規制を推進する世界のリーダーたちと積極的に関わってきた。最近上院に出席した際、アルトマン氏は繰り返し議員らに業界を厳しく規制するよう求めた。CAISの声明は、AIの危険性についての認識を高める同氏の取り組みと合致している。
この公開書簡は注目を集めているが、AI倫理の専門家の中には、このような声明を出す傾向を批判する人もいる。
機械学習研究科学者のサーシャ・ルッチオーニ博士は、パンデミックや気候変動などの具体的なリスクと並んで仮想的なAIリスクに言及することで、前者の信頼性が高まり、偏見、法的課題、同意などの差し迫った問題から注意をそらすことができると示唆している。
作家であり未来学者でもあるダニエル・ジェフリーズ氏は、AI のリスクについて議論することはステータスゲームになっており、個人は実際のコストを負うことなく時流に飛びつくだけだと主張している。
批評家は、将来の脅威に関する公開書簡に署名することで、現在AIがもたらす危害の責任者が罪悪感を軽減できる一方で、すでに使用されているAI技術に関連する倫理的問題を無視できると主張している。
しかし、サンフランシスコを拠点とする非営利団体 CAIS は、技術研究と支援を通じて AI による社会規模のリスクを軽減することに引き続き注力しています。この組織は、コンピューター サイエンスのバックグラウンドを持ち、AI の安全性に強い関心を持つ専門家によって共同設立されました。
研究者の中には、人間の能力を超え、存在の脅威となる超知能 AI の出現を恐れる人がいる一方で、仮想的な終末シナリオに関する公開書簡に署名することは、AI を取り巻く既存の倫理的ジレンマから注意を逸らすものだと主張する人もいます。彼らは、監視、偏ったアルゴリズム、人権侵害など、AI が現在引き起こしている実際の問題に対処する必要性を強調しています。
AI の進歩と責任ある実装および規制のバランスをとることは、研究者、政策立案者、業界リーダーにとって依然として重要な課題です。