# Сем Альтман про втрату роботи через ШІ та трагедію з екс-співробітником OpenAI — інтерв'ю
Багато нинішніх співробітників служби підтримки, які працюють по телефону або через комп'ютер, втратять роботу через ШІ. Таку заяву зробив CEO OpenAI Сем Альтман в інтерв'ю Такеру Карлсону.
Однак будуть професії, яких ІІ торкнеться менше. У них важливий «людський контакт і глибокий зв'язок». У приклад підприємець навів медсестер.
Що стосується програмістів, завдяки штучному інтелекту вони можуть робити набагато більше і отримувати вищі зарплати, вважає він.
«Виявляється, що світові потрібно було набагато більше програмістів і ПЗ, ніж раніше він міг створити. Тож існує величезний незадоволений попит», — підкреслив Сем Альтман.
Щодо найближчих 5-10 років, CEO OpenAI не впевнений, як зміниться кількість робочих місць. Він вважає, що витіснення одних професій може призвести до появи нових.
«Нещодавно мені довелося почути, що половина робочих місць не зникає, а швидше трансформується кожні 75 років. Це, по суті, свого роду період напіврозпаду. […] Цілком можу повірити у світ, де через 75 років половина людей займатиметься чимось новим, а решта — чимось, що частково нагадує сьогоднішні професії», — заявив він.
Карлсон торкнувся теми знайденого в грудні 2024 року мертвим Сухіра Баладжі, який чотири роки працював в OpenAI. У жовтні дослідник опублікував есе, де розкритикував використання авторських даних в навчанні ШІ, ставлячи під сумнів їх відповідність «концепції добросовісного використання». У ході розслідування поліція не виявила слідів насильницької смерті, а судмедексперт міста назвав причиною самогубство.
Мати загиблого засумнівалася в версії слідства. За словами Карлсона, в розмові з журналістом вона звинуватила в смерті сина Альтмана. Найнятий нею приватний детектив нібито знайшов ознаки боротьби в квартирі Баладжі, а сам інтерв'юер звернув увагу на виявлений перуку, замовлення їжі за кілька годин до інциденту, перерізані дроти камери спостереження, нещодавнє повернення з відпустки з друзями та відсутність будь-яких ознак суїцидальних нахилів.
«Він покінчив із собою. Я так думаю», — зауважив Сем Альтман.
Підприємець повідомив, що витратив багато часу на розбір інциденту і, на його думку, «це схоже на самогубство». В якості аргументів глава OpenAI навів придбання пістолета, медичний висновок і другий звіт про траєкторію кулі.
«Після першої порції інформації я подумав, що це не схоже на самогубство. […] Але потім, коли з’явилася друга частина деталей, я подумав “окей”», — заявив він.
Також Карлсон поговорив з Альтманом про бога, релігію, моральні принципи підприємця, їх формування у ChatGPT та приватність. Під час спілкування журналіст запитав, чи дозволить OpenAI військовим використовувати ChatGPT для прийняття рішень про вбивство людей.
«Якби я виготовляв гвинтівки, я б багато часу думав про те, що їх основна мета — вбивати, будь то люди, тварини чи хтось інший. Якби я виготовляв кухонні ножі, я б все одно розумів, що ними будуть вбивати певну кількість людей на рік. А ось що стосується, наприклад, ChatGPT, […] я усвідомлюю, що люди в наших збройних силах використовують його для порад, як виконувати роботу», — відповів Альтман.
Нагадаємо, у липні Міністерство оборони США виділило контракти на суму до $200 млн компаніям Anthropic, Google, OpenAI та xAI на розробку ІІ-рішень у сфері безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Альтман відповів на обвинувачення в убивстві колишнього співробітника
Багато нинішніх співробітників служби підтримки, які працюють по телефону або через комп'ютер, втратять роботу через ШІ. Таку заяву зробив CEO OpenAI Сем Альтман в інтерв'ю Такеру Карлсону.
Однак будуть професії, яких ІІ торкнеться менше. У них важливий «людський контакт і глибокий зв'язок». У приклад підприємець навів медсестер.
Що стосується програмістів, завдяки штучному інтелекту вони можуть робити набагато більше і отримувати вищі зарплати, вважає він.
Щодо найближчих 5-10 років, CEO OpenAI не впевнений, як зміниться кількість робочих місць. Він вважає, що витіснення одних професій може призвести до появи нових.
Карлсон торкнувся теми знайденого в грудні 2024 року мертвим Сухіра Баладжі, який чотири роки працював в OpenAI. У жовтні дослідник опублікував есе, де розкритикував використання авторських даних в навчанні ШІ, ставлячи під сумнів їх відповідність «концепції добросовісного використання». У ході розслідування поліція не виявила слідів насильницької смерті, а судмедексперт міста назвав причиною самогубство.
Мати загиблого засумнівалася в версії слідства. За словами Карлсона, в розмові з журналістом вона звинуватила в смерті сина Альтмана. Найнятий нею приватний детектив нібито знайшов ознаки боротьби в квартирі Баладжі, а сам інтерв'юер звернув увагу на виявлений перуку, замовлення їжі за кілька годин до інциденту, перерізані дроти камери спостереження, нещодавнє повернення з відпустки з друзями та відсутність будь-яких ознак суїцидальних нахилів.
Підприємець повідомив, що витратив багато часу на розбір інциденту і, на його думку, «це схоже на самогубство». В якості аргументів глава OpenAI навів придбання пістолета, медичний висновок і другий звіт про траєкторію кулі.
Також Карлсон поговорив з Альтманом про бога, релігію, моральні принципи підприємця, їх формування у ChatGPT та приватність. Під час спілкування журналіст запитав, чи дозволить OpenAI військовим використовувати ChatGPT для прийняття рішень про вбивство людей.
Нагадаємо, у липні Міністерство оборони США виділило контракти на суму до $200 млн компаніям Anthropic, Google, OpenAI та xAI на розробку ІІ-рішень у сфері безпеки.