# Sam Altman về việc mất việc do AI và bi kịch với cựu nhân viên OpenAI — phỏng vấn
Nhiều nhân viên hỗ trợ hiện tại, làm việc qua điện thoại hoặc máy tính, sẽ mất việc vì AI. Đây là tuyên bố của CEO OpenAI Sam Altman trong cuộc phỏng vấn với Tucker Carlson.
Tuy nhiên, sẽ có những nghề mà AI sẽ ảnh hưởng ít hơn. Trong đó, "sự tiếp xúc con người và kết nối sâu sắc" là quan trọng. Doanh nhân đã đưa ra ví dụ về các y tá.
Về phần các lập trình viên, nhờ vào trí tuệ nhân tạo, họ có thể làm nhiều hơn và nhận lương cao hơn, ông cho rằng.
«Hóa ra, thế giới cần nhiều lập trình viên và phần mềm hơn rất nhiều so với những gì nó có thể tạo ra trước đây. Vì vậy, có một nhu cầu chưa được đáp ứng rất lớn», — Altman nhấn mạnh.
Về những năm tới 5-10, CEO của OpenAI không chắc chắn về cách số lượng việc làm sẽ thay đổi. Ông tin rằng việc thay thế một số nghề có thể dẫn đến sự xuất hiện của những nghề mới.
«Gần đây tôi nghe nói rằng một nửa số việc làm không biến mất, mà thực sự sẽ chuyển đổi trong mỗi 75 năm. Đây, về cơ bản, là một loại chu kỳ bán rã. […] Tôi hoàn toàn có thể tin vào một thế giới, nơi sau 75 năm, một nửa số người sẽ làm những điều mới mẻ, trong khi những người còn lại sẽ làm những công việc phần nào giống như các nghề hiện tại», — ông ấy tuyên bố.
Karlsson đã đề cập đến chủ đề về cái chết của Sukhir Balaji, người được phát hiện đã chết vào tháng 12 năm 2024, người đã làm việc tại OpenAI trong bốn năm. Vào tháng 10, nhà nghiên cứu đã công bố một bài tiểu luận, trong đó chỉ trích việc sử dụng dữ liệu bản quyền trong việc đào tạo AI, đặt câu hỏi về sự phù hợp của chúng với "khái niệm sử dụng hợp lý". Trong quá trình điều tra, cảnh sát không phát hiện dấu hiệu của cái chết do bạo lực, và bác sĩ pháp y của thành phố đã gọi nguyên nhân là tự sát.
Mẹ của người đã khuất nghi ngờ về phiên bản điều tra. Theo lời của Karlson, trong cuộc trò chuyện với phóng viên, bà đã buộc tội Sam Altman về cái chết của con trai. Thám tử tư mà bà thuê được cho là đã tìm thấy dấu hiệu của cuộc vật lộn trong căn hộ của Balaji, và chính phỏng viên đã lưu ý đến một cái tóc giả được phát hiện, đơn đặt hàng thức ăn vài giờ trước sự cố, dây camera giám sát bị cắt đứt, việc trở về gần đây từ kỳ nghỉ với bạn bè và không có dấu hiệu nào về khuynh hướng tự sát.
«Ông ấy đã tự tử. Tôi nghĩ vậy», — Altman đã nhận xét.
Doanh nhân cho biết ông đã dành nhiều thời gian để xem xét vụ việc và theo ý kiến của ông, "điều này giống như một vụ tự sát." Làm bằng chứng, người đứng đầu OpenAI đã nêu ra việc mua súng, kết luận y tế và báo cáo thứ hai về quỹ đạo của viên đạn.
«Sau phần thông tin đầu tiên, tôi nghĩ rằng điều này không giống như một vụ tự sát. […] Nhưng sau đó, khi phần chi tiết thứ hai xuất hiện, tôi nghĩ “được rồi”», — ông ấy tuyên bố.
Ngoài ra, Karlson đã nói chuyện với Altman về Chúa, tôn giáo, các nguyên tắc đạo đức của doanh nhân, sự hình thành của chúng ở ChatGPT và quyền riêng tư. Trong cuộc trò chuyện, nhà báo đã hỏi liệu OpenAI có cho phép quân đội sử dụng ChatGPT để đưa ra quyết định về việc giết người hay không.
«Nếu tôi làm súng trường, tôi sẽ dành nhiều thời gian suy nghĩ về việc mục đích chính của chúng là giết chóc, dù là người, động vật hay ai đó khác. Nếu tôi làm dao nhà bếp, tôi cũng sẽ hiểu rằng chúng sẽ giết một số lượng người nhất định mỗi năm. Còn đối với, chẳng hạn, ChatGPT, […] tôi nhận thức rằng mọi người trong lực lượng vũ trang của chúng tôi sử dụng nó để xin lời khuyên về cách thực hiện công việc», — Altman trả lời.
Nhắc lại, vào tháng 7, Bộ Quốc phòng Hoa Kỳ đã cấp hợp đồng lên tới 200 triệu đô la cho các công ty Anthropic, Google, OpenAI và xAI để phát triển các giải pháp AI trong lĩnh vực an ninh.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Altman đã trả lời cáo buộc giết chết cựu nhân viên
Nhiều nhân viên hỗ trợ hiện tại, làm việc qua điện thoại hoặc máy tính, sẽ mất việc vì AI. Đây là tuyên bố của CEO OpenAI Sam Altman trong cuộc phỏng vấn với Tucker Carlson.
Tuy nhiên, sẽ có những nghề mà AI sẽ ảnh hưởng ít hơn. Trong đó, "sự tiếp xúc con người và kết nối sâu sắc" là quan trọng. Doanh nhân đã đưa ra ví dụ về các y tá.
Về phần các lập trình viên, nhờ vào trí tuệ nhân tạo, họ có thể làm nhiều hơn và nhận lương cao hơn, ông cho rằng.
Về những năm tới 5-10, CEO của OpenAI không chắc chắn về cách số lượng việc làm sẽ thay đổi. Ông tin rằng việc thay thế một số nghề có thể dẫn đến sự xuất hiện của những nghề mới.
Karlsson đã đề cập đến chủ đề về cái chết của Sukhir Balaji, người được phát hiện đã chết vào tháng 12 năm 2024, người đã làm việc tại OpenAI trong bốn năm. Vào tháng 10, nhà nghiên cứu đã công bố một bài tiểu luận, trong đó chỉ trích việc sử dụng dữ liệu bản quyền trong việc đào tạo AI, đặt câu hỏi về sự phù hợp của chúng với "khái niệm sử dụng hợp lý". Trong quá trình điều tra, cảnh sát không phát hiện dấu hiệu của cái chết do bạo lực, và bác sĩ pháp y của thành phố đã gọi nguyên nhân là tự sát.
Mẹ của người đã khuất nghi ngờ về phiên bản điều tra. Theo lời của Karlson, trong cuộc trò chuyện với phóng viên, bà đã buộc tội Sam Altman về cái chết của con trai. Thám tử tư mà bà thuê được cho là đã tìm thấy dấu hiệu của cuộc vật lộn trong căn hộ của Balaji, và chính phỏng viên đã lưu ý đến một cái tóc giả được phát hiện, đơn đặt hàng thức ăn vài giờ trước sự cố, dây camera giám sát bị cắt đứt, việc trở về gần đây từ kỳ nghỉ với bạn bè và không có dấu hiệu nào về khuynh hướng tự sát.
Doanh nhân cho biết ông đã dành nhiều thời gian để xem xét vụ việc và theo ý kiến của ông, "điều này giống như một vụ tự sát." Làm bằng chứng, người đứng đầu OpenAI đã nêu ra việc mua súng, kết luận y tế và báo cáo thứ hai về quỹ đạo của viên đạn.
Ngoài ra, Karlson đã nói chuyện với Altman về Chúa, tôn giáo, các nguyên tắc đạo đức của doanh nhân, sự hình thành của chúng ở ChatGPT và quyền riêng tư. Trong cuộc trò chuyện, nhà báo đã hỏi liệu OpenAI có cho phép quân đội sử dụng ChatGPT để đưa ra quyết định về việc giết người hay không.
Nhắc lại, vào tháng 7, Bộ Quốc phòng Hoa Kỳ đã cấp hợp đồng lên tới 200 triệu đô la cho các công ty Anthropic, Google, OpenAI và xAI để phát triển các giải pháp AI trong lĩnh vực an ninh.