人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。おすすめ動画* * *AIにおいて最も声高に叫ばれる意見は、二つの陣営に分かれることが多い。技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを促す者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは後者のグループに属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間企業が終わりの見えない競争に巻き込まれ、冷戦時代以来の危険な競争に発展しかねないことだ。「政府が民間企業に対して、地球上のすべての人間とロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルは新デリーで開催されたAIインパクトサミットでAFPに語った。技術企業のCEOたちは次世代の最良のAIモデルを開発する「軍拡競争」に巻き込まれているが、その目的は最終的に医療研究や生産性の大幅な向上をもたらすと業界は主張している。一方、多くの者はリスクを無視したり軽視したりしているとラッセルは指摘する。最悪の場合、規制のないまま革新の速度が加速すれば、人類の絶滅につながる可能性もあると彼は考えている。ラッセルはAIの急速な展開に潜む存在的リスクについて熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版した。2016年にはバークレーにAIの安全性に焦点を当てた研究センターを設立し、「証明可能に有益な」AIシステムを人類のために推進している。新デリーで、ラッセルは企業や政府がその目標からいかに遠く離れているかについて言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添えになる」ことを懸念している。主要なAI企業のトップたちはこれらの存在的危険性を認識しているが、市場の力によって自らを縛ることはできずにいる。「主要なAI企業のCEOたちは皆、武装解除を望んでいると思うが、それは一方的にはできない」とラッセルは述べた。「競合他社にすぐに奪われてしまい、投資家から即座に追放されることになるからだ。」**新冷戦**--------------------存在的リスクや人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れた時代だ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米国と中国の対立は、多くの場合、AIの「軍拡競争」として語られ、20世紀後半のワシントンとモスクワの核競争を特徴づけた秘密主義、緊迫感、そして高いリスクが伴っている。ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを簡潔に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。現在の軍拡競争は兵器の数で測れるものではないが、その規模は膨大な資本投入に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAI関連の資本支出は6000億ドルを超えると予測されている。しかし、ラッセルは、積極的な企業の行動に対して規制による自制が追いついていないと指摘する。「各国政府がこの問題を理解していることが非常に重要だ。だからこそ、私はここにいる」と彼はインドのサミットを指して述べた。中国やEUは、技術規制に対してより厳しい姿勢を取っている。一方、他の国々では、より手つかずのままの状況が続いている。インド政府は、主に規制緩和の方針を採用している。米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃して企業の自由な活動を促進しようとしている。**私たちとともにフォーチュン職場革新サミットに参加しませんか** 2026年5月19日〜20日、アトランタで開催される。次なる職場革新の時代が到来し、従来のやり方は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び未来の働き方を再定義するのかを探る。今すぐ登録しよう。
AIの軍拡競争で「ロシアンルーレット」をしているビッグテック幹部は、人類絶滅の危険を伴う可能性があると、トップ研究者が警告
人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。
おすすめ動画
AIにおいて最も声高に叫ばれる意見は、二つの陣営に分かれることが多い。技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを促す者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは後者のグループに属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間企業が終わりの見えない競争に巻き込まれ、冷戦時代以来の危険な競争に発展しかねないことだ。
「政府が民間企業に対して、地球上のすべての人間とロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルは新デリーで開催されたAIインパクトサミットでAFPに語った。
技術企業のCEOたちは次世代の最良のAIモデルを開発する「軍拡競争」に巻き込まれているが、その目的は最終的に医療研究や生産性の大幅な向上をもたらすと業界は主張している。一方、多くの者はリスクを無視したり軽視したりしているとラッセルは指摘する。最悪の場合、規制のないまま革新の速度が加速すれば、人類の絶滅につながる可能性もあると彼は考えている。
ラッセルはAIの急速な展開に潜む存在的リスクについて熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版した。2016年にはバークレーにAIの安全性に焦点を当てた研究センターを設立し、「証明可能に有益な」AIシステムを人類のために推進している。
新デリーで、ラッセルは企業や政府がその目標からいかに遠く離れているかについて言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添えになる」ことを懸念している。
主要なAI企業のトップたちはこれらの存在的危険性を認識しているが、市場の力によって自らを縛ることはできずにいる。「主要なAI企業のCEOたちは皆、武装解除を望んでいると思うが、それは一方的にはできない」とラッセルは述べた。「競合他社にすぐに奪われてしまい、投資家から即座に追放されることになるからだ。」
新冷戦
存在的リスクや人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れた時代だ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米国と中国の対立は、多くの場合、AIの「軍拡競争」として語られ、20世紀後半のワシントンとモスクワの核競争を特徴づけた秘密主義、緊迫感、そして高いリスクが伴っている。
ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを簡潔に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。
現在の軍拡競争は兵器の数で測れるものではないが、その規模は膨大な資本投入に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAI関連の資本支出は6000億ドルを超えると予測されている。
しかし、ラッセルは、積極的な企業の行動に対して規制による自制が追いついていないと指摘する。「各国政府がこの問題を理解していることが非常に重要だ。だからこそ、私はここにいる」と彼はインドのサミットを指して述べた。
中国やEUは、技術規制に対してより厳しい姿勢を取っている。一方、他の国々では、より手つかずのままの状況が続いている。インド政府は、主に規制緩和の方針を採用している。米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃して企業の自由な活動を促進しようとしている。
私たちとともにフォーチュン職場革新サミットに参加しませんか 2026年5月19日〜20日、アトランタで開催される。次なる職場革新の時代が到来し、従来のやり方は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び未来の働き方を再定義するのかを探る。今すぐ登録しよう。