スポンサーリンク
Contents
スポンサーリンク
概要
GoogleのDeepMindは、水曜日にAGI(人間ができる任意のタスクを達成できるAI)に関する安全アプローチを詳しく述べた145ページの論文を発表しました。
AGIはAI分野で物議を醸しているテーマであり、一部の研究者はそれが単なる幻想だと指摘していますが、他のAIラボは2030年までにAGIが現れ、深刻な害をもたらす可能性があると警告しています。
論文では、「例外的AGI」と呼ばれる能力を備えたシステムが登場すると予測されており、著者らは化け物のような存在が人類を「永久に破壊する」という危険性を示唆しています。
DeepMindは、AGIのリスク軽減に対する他の研究機関、特にAnthropicやOpenAIとのアプローチの違いを指摘し、Anthropicはトレーニングやセキュリティに対する強化を重視しないと述べています。
また、著者らは超知能AIの実現は難しいと考えており、現行のパラダイムが「再帰的AI改善」を可能にするかもしれないが、それがもたらす危険性に警鐘を鳴らしています。
論文では、悪意のある行為者のAGIへのアクセスを制限する技術や、AIシステムの行動理解を改善する方法の開発を提案しています。
一方で、専門家の中には論文の前提に異議を唱える声もあり、AGIの定義が不明確だと指摘する意見や、再帰的AI改善の現実こそ疑わしいという意見が存在します。
DeepMindの包括的な論文は、AGIの実現可能性やAIの安全性に対する関心が集中している分野における議論を解決するものではないと考えられています。
ポイント
- Google DeepMindはAGIの安全性アプローチに関する145ページの論文を発表した。
- AGIの登場は2030年頃と予測され、著者は重大な危険を警告している。
- AGIの開発には、安全対策の強化が必要であり、効果的な手法の確立が求められる。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク