# Sam Altman on job loss due to AI and tragedy with ex-OpenAI employee – インタビュー現在、電話やコンピュータを通じて働いている多くのサポートスタッフは、AIの影響で仕事を失うことになるでしょう。このような発言をしたのは、OpenAIのCEO サム・アルトマンです。タッカー・カールソンとのインタビューでのことです。ただし、AIがあまり影響を与えない職業もあります。それらには「人間の接触と深い繋がり」が重要です。例として、起業家は看護師を挙げました。プログラマーについては、人工知能のおかげで彼らはもっと多くのことを行い、より高い給料を得ることができると彼は考えています。> >「実際、世界は以前に作成できたよりもはるかに多くのプログラマーとソフトウェアを必要としていたことがわかりました。したがって、巨大な未満足の需要が存在しています。」とアルトマンは強調しました。> > > 今後5〜10年について、OpenAIのCEOは雇用の数がどのように変化するか確信が持てません。彼は、特定の職業が排除されることが新しい職業の出現につながる可能性があると考えています。> > 「最近、聞いたのですが、労働市場の半分は消失するのではなく、むしろ75年ごとに変化するそうです。これは本質的に半減期のようなものです。 […] 私は75年後に半分の人々が新しい何かに従事し、残りの人々が今日の職業を部分的に思い起こさせる何かに従事している世界を信じることができます」> > > カールソンは、2024年12月に亡くなったスヒル・バラジについて言及しました。彼は4年間OpenAIで働いていました。10月に研究者はエッセイを発表し、AIの学習における著作権データの使用を批判し、それが「公正使用の概念」に合致するかどうか疑問を呈しました。調査の過程で、警察は暴力的な死の痕跡を発見せず、市の法医学者は自殺を死因としました。亡くなった息子の母親は、捜査の見解に疑問を呈した。カーソンによれば、彼女は記者との会話の中で、息子の死にアルトマンを非難した。彼女が雇った私立探偵は、バラジのアパートで争いの兆候を発見したとされ、インタビュアー自身も、事件の数時間前に注文された食事、監視カメラの切断されたワイヤー、友人との休暇からの最近の帰還、そして自殺傾向の兆候が全くないことに注意を向けた。> >「彼は自ら命を絶った。そう思う」— アルトマンは述べた。> > > 起業家は、事件の分析に多くの時間を費やしたと述べ、「自殺のように思える」と考えていると述べました。OpenAIの責任者は、拳銃の購入、医療報告書、および弾道の第二の報告書を根拠として挙げました。> >「最初の情報を受け取った時、これは自殺とは思えないと思った。 […] でも、その後、詳細の第二弾が出た時、私は「まあ、いいか」と思った」 — 彼は述べた。> > > また、カールソンはアルトマンと神、宗教、起業家の道徳的原則、ChatGPTにおけるそれらの形成、プライバシーについて話しました。会話の中で、ジャーナリストはOpenAIが軍に対して人を殺す決定を下すためにChatGPTを使用することを許可するかどうか尋ねました。> > 「もし私がライフルを作っていたら、それらの主な目的が人を殺すことであること、たとえそれが人間、動物、または他の誰かであっても、を考えるのに多くの時間を費やすだろう。もし私がキッチンナイフを作っていたら、それでも年間に何人かの人がそれで殺されることを理解するだろう。しかし、たとえばChatGPTに関しては、[…] 私たちの武装勢力がそれを使って仕事を遂行するためのアドバイスとして使用していることを認識している」とアルトマンは答えた。> > > 再度お知らせしますが、7月に米国防総省は、Anthropic、Google、OpenAI、xAIの企業に対して、安全保障分野におけるAIソリューションの開発のために、最大2億ドルの契約を交付しました。
アルトマンは元従業員の殺人の告発に応じた
現在、電話やコンピュータを通じて働いている多くのサポートスタッフは、AIの影響で仕事を失うことになるでしょう。このような発言をしたのは、OpenAIのCEO サム・アルトマンです。タッカー・カールソンとのインタビューでのことです。
ただし、AIがあまり影響を与えない職業もあります。それらには「人間の接触と深い繋がり」が重要です。例として、起業家は看護師を挙げました。
プログラマーについては、人工知能のおかげで彼らはもっと多くのことを行い、より高い給料を得ることができると彼は考えています。
今後5〜10年について、OpenAIのCEOは雇用の数がどのように変化するか確信が持てません。彼は、特定の職業が排除されることが新しい職業の出現につながる可能性があると考えています。
カールソンは、2024年12月に亡くなったスヒル・バラジについて言及しました。彼は4年間OpenAIで働いていました。10月に研究者はエッセイを発表し、AIの学習における著作権データの使用を批判し、それが「公正使用の概念」に合致するかどうか疑問を呈しました。調査の過程で、警察は暴力的な死の痕跡を発見せず、市の法医学者は自殺を死因としました。
亡くなった息子の母親は、捜査の見解に疑問を呈した。カーソンによれば、彼女は記者との会話の中で、息子の死にアルトマンを非難した。彼女が雇った私立探偵は、バラジのアパートで争いの兆候を発見したとされ、インタビュアー自身も、事件の数時間前に注文された食事、監視カメラの切断されたワイヤー、友人との休暇からの最近の帰還、そして自殺傾向の兆候が全くないことに注意を向けた。
起業家は、事件の分析に多くの時間を費やしたと述べ、「自殺のように思える」と考えていると述べました。OpenAIの責任者は、拳銃の購入、医療報告書、および弾道の第二の報告書を根拠として挙げました。
また、カールソンはアルトマンと神、宗教、起業家の道徳的原則、ChatGPTにおけるそれらの形成、プライバシーについて話しました。会話の中で、ジャーナリストはOpenAIが軍に対して人を殺す決定を下すためにChatGPTを使用することを許可するかどうか尋ねました。
再度お知らせしますが、7月に米国防総省は、Anthropic、Google、OpenAI、xAIの企業に対して、安全保障分野におけるAIソリューションの開発のために、最大2億ドルの契約を交付しました。