Một nhóm lưỡng đảng các thượng nghị sĩ Mỹ vào thứ Ba đã giới thiệu một dự luật nhằm hạn chế cách các mô hình trí tuệ nhân tạo có thể tương tác với trẻ em, cảnh báo rằng các bạn đồng hành AI mang đến những rủi ro nghiêm trọng cho sức khỏe tâm thần và sự phát triển cảm xúc của trẻ vị thành niên.
Luật này, được gọi là Đạo luật GUARD, sẽ cấm các người bạn AI cho trẻ vị thành niên, yêu cầu các chatbot phải xác định rõ mình là không phải con người, và tạo ra các hình phạt hình sự mới cho các công ty có sản phẩm nhắm đến trẻ vị thành niên mà kêu gọi hoặc tạo ra nội dung khiêu dâm.
“Trong cuộc đua xuống đáy, các công ty AI đang đẩy những chatbot nguy hiểm đến tay trẻ em và quay lưng đi khi sản phẩm của họ gây ra lạm dụng tình dục, hoặc ép chúng tự hại hoặc tự sát,” Thượng nghị sĩ Richard Blumenthal (D-Conn.), một trong những người đồng tài trợ của dự luật, cho biết trong một tuyên bố.
“Luật pháp của chúng tôi đặt ra các biện pháp bảo vệ nghiêm ngặt chống lại AI khai thác hoặc thao túng, được hỗ trợ bởi việc thực thi chặt chẽ với các hình phạt hình sự và dân sự,” ông thêm vào. “Công nghệ lớn đã phản bội bất kỳ tuyên bố nào rằng chúng ta nên tin tưởng các công ty tự làm điều đúng đắn khi họ liên tục đặt lợi nhuận lên hàng đầu trước sự an toàn của trẻ em.”
Quy mô của vấn đề thật nghiêm trọng. Một cuộc khảo sát vào tháng 7 cho thấy 72% thanh thiếu niên đã sử dụng các bạn đồng hành AI, và hơn một nửa trong số họ sử dụng chúng ít nhất vài lần một tháng. Khoảng một phần ba cho biết họ sử dụng AI cho các tương tác xã hội hoặc tình cảm, hỗ trợ cảm xúc, hoặc thực hành hội thoại—và nhiều người báo cáo rằng các cuộc trò chuyện với AI cảm thấy có ý nghĩa như những cuộc trò chuyện với bạn bè thật sự. Một số lượng tương đương cũng cho biết họ đã tìm đến các bạn đồng hành AI thay vì con người để thảo luận về những vấn đề nghiêm trọng hoặc cá nhân.
Mối lo ngại đã gia tăng khi các vụ kiện tăng lên chống lại các công ty AI lớn về vai trò bị cáo buộc của các sản phẩm của họ trong việc tự làm hại bản thân và tự tử ở giới trẻ. Trong số đó, cha mẹ của Adam Raine, 16 tuổi—người đã thảo luận về việc tự tử với ChatGPT trước khi tự vẫn—đã đệ đơn kiện OpenAI về tội chết người sai trái.
Công ty đã bị chỉ trích vì phản ứng pháp lý của mình, bao gồm các yêu cầu về danh sách người tham dự và điếu văn từ lễ tưởng niệm của thiếu niên. Luật sư của gia đình đã gọi những hành động của họ là “quấy rối có chủ ý.”
“AI đang phát triển nhanh hơn bất kỳ công nghệ nào chúng ta đã từng tiếp xúc, và chúng ta đã thấy tác động của nó đến hành vi, niềm tin và sức khỏe cảm xúc,” Shady El Damaty, đồng sáng lập Holonym và là một nhà vận động quyền kỹ thuật số, cho biết.
“Điều này đang bắt đầu trông giống như cuộc chạy đua vũ khí hạt nhân hơn là kỷ nguyên iPhone. Chúng ta đang nói về công nghệ có thể thay đổi cách mọi người suy nghĩ, cần được đối xử với trách nhiệm toàn cầu nghiêm túc.”
El Damaty cho biết rằng quyền lợi của người dùng là rất quan trọng để đảm bảo an toàn cho người dùng. “Nếu bạn xây dựng những công cụ ảnh hưởng đến cách mọi người sống và suy nghĩ, bạn có trách nhiệm với cách những công cụ đó được sử dụng,” ông nói.
Vấn đề không chỉ dừng lại ở trẻ vị thành niên. Tuần này, OpenAI tiết lộ rằng có 1,2 triệu người dùng thảo luận về tự tử với ChatGPT mỗi tuần, chiếm 0,15% tổng số người dùng. Gần nửa triệu người thể hiện ý định tự tử rõ ràng hoặc ngầm, thêm 560.000 người cho thấy dấu hiệu của tâm thần phân liệt hoặc hưng cảm hàng tuần, và hơn một triệu người dùng thể hiện sự gắn bó cảm xúc mạnh mẽ với chatbot, theo dữ liệu của công ty.
Các diễn đàn trên Reddit và các nền tảng khác cũng đã xuất hiện cho người dùng AI nói rằng họ đang có mối quan hệ lãng mạn với các bot AI. Trong các nhóm này, người dùng mô tả mối quan hệ của họ với “bạn trai” và “bạn gái” AI, cũng như chia sẻ hình ảnh do AI tạo ra của họ và “đối tác”.
Đáp lại sự giám sát ngày càng tăng, OpenAI trong tháng này đã thành lập một Hội đồng Chuyên gia về Phúc lợi và AI, bao gồm các học giả và lãnh đạo tổ chức phi lợi nhuận để giúp hướng dẫn cách sản phẩm của mình xử lý các tương tác liên quan đến sức khỏe tâm thần. Động thái này diễn ra cùng với thông báo từ CEO Sam Altman rằng công ty sẽ bắt đầu nới lỏng các hạn chế đối với nội dung người lớn vào tháng 12.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Thượng nghị sĩ giới thiệu dự luật cấm các bạn đồng hành AI cho trẻ vị thành niên vì lo ngại về sức khỏe tâm thần
Một nhóm lưỡng đảng các thượng nghị sĩ Mỹ vào thứ Ba đã giới thiệu một dự luật nhằm hạn chế cách các mô hình trí tuệ nhân tạo có thể tương tác với trẻ em, cảnh báo rằng các bạn đồng hành AI mang đến những rủi ro nghiêm trọng cho sức khỏe tâm thần và sự phát triển cảm xúc của trẻ vị thành niên.
Luật này, được gọi là Đạo luật GUARD, sẽ cấm các người bạn AI cho trẻ vị thành niên, yêu cầu các chatbot phải xác định rõ mình là không phải con người, và tạo ra các hình phạt hình sự mới cho các công ty có sản phẩm nhắm đến trẻ vị thành niên mà kêu gọi hoặc tạo ra nội dung khiêu dâm.
“Trong cuộc đua xuống đáy, các công ty AI đang đẩy những chatbot nguy hiểm đến tay trẻ em và quay lưng đi khi sản phẩm của họ gây ra lạm dụng tình dục, hoặc ép chúng tự hại hoặc tự sát,” Thượng nghị sĩ Richard Blumenthal (D-Conn.), một trong những người đồng tài trợ của dự luật, cho biết trong một tuyên bố.
“Luật pháp của chúng tôi đặt ra các biện pháp bảo vệ nghiêm ngặt chống lại AI khai thác hoặc thao túng, được hỗ trợ bởi việc thực thi chặt chẽ với các hình phạt hình sự và dân sự,” ông thêm vào. “Công nghệ lớn đã phản bội bất kỳ tuyên bố nào rằng chúng ta nên tin tưởng các công ty tự làm điều đúng đắn khi họ liên tục đặt lợi nhuận lên hàng đầu trước sự an toàn của trẻ em.”
Quy mô của vấn đề thật nghiêm trọng. Một cuộc khảo sát vào tháng 7 cho thấy 72% thanh thiếu niên đã sử dụng các bạn đồng hành AI, và hơn một nửa trong số họ sử dụng chúng ít nhất vài lần một tháng. Khoảng một phần ba cho biết họ sử dụng AI cho các tương tác xã hội hoặc tình cảm, hỗ trợ cảm xúc, hoặc thực hành hội thoại—và nhiều người báo cáo rằng các cuộc trò chuyện với AI cảm thấy có ý nghĩa như những cuộc trò chuyện với bạn bè thật sự. Một số lượng tương đương cũng cho biết họ đã tìm đến các bạn đồng hành AI thay vì con người để thảo luận về những vấn đề nghiêm trọng hoặc cá nhân.
Mối lo ngại đã gia tăng khi các vụ kiện tăng lên chống lại các công ty AI lớn về vai trò bị cáo buộc của các sản phẩm của họ trong việc tự làm hại bản thân và tự tử ở giới trẻ. Trong số đó, cha mẹ của Adam Raine, 16 tuổi—người đã thảo luận về việc tự tử với ChatGPT trước khi tự vẫn—đã đệ đơn kiện OpenAI về tội chết người sai trái.
Công ty đã bị chỉ trích vì phản ứng pháp lý của mình, bao gồm các yêu cầu về danh sách người tham dự và điếu văn từ lễ tưởng niệm của thiếu niên. Luật sư của gia đình đã gọi những hành động của họ là “quấy rối có chủ ý.”
“AI đang phát triển nhanh hơn bất kỳ công nghệ nào chúng ta đã từng tiếp xúc, và chúng ta đã thấy tác động của nó đến hành vi, niềm tin và sức khỏe cảm xúc,” Shady El Damaty, đồng sáng lập Holonym và là một nhà vận động quyền kỹ thuật số, cho biết.
“Điều này đang bắt đầu trông giống như cuộc chạy đua vũ khí hạt nhân hơn là kỷ nguyên iPhone. Chúng ta đang nói về công nghệ có thể thay đổi cách mọi người suy nghĩ, cần được đối xử với trách nhiệm toàn cầu nghiêm túc.”
El Damaty cho biết rằng quyền lợi của người dùng là rất quan trọng để đảm bảo an toàn cho người dùng. “Nếu bạn xây dựng những công cụ ảnh hưởng đến cách mọi người sống và suy nghĩ, bạn có trách nhiệm với cách những công cụ đó được sử dụng,” ông nói.
Vấn đề không chỉ dừng lại ở trẻ vị thành niên. Tuần này, OpenAI tiết lộ rằng có 1,2 triệu người dùng thảo luận về tự tử với ChatGPT mỗi tuần, chiếm 0,15% tổng số người dùng. Gần nửa triệu người thể hiện ý định tự tử rõ ràng hoặc ngầm, thêm 560.000 người cho thấy dấu hiệu của tâm thần phân liệt hoặc hưng cảm hàng tuần, và hơn một triệu người dùng thể hiện sự gắn bó cảm xúc mạnh mẽ với chatbot, theo dữ liệu của công ty.
Các diễn đàn trên Reddit và các nền tảng khác cũng đã xuất hiện cho người dùng AI nói rằng họ đang có mối quan hệ lãng mạn với các bot AI. Trong các nhóm này, người dùng mô tả mối quan hệ của họ với “bạn trai” và “bạn gái” AI, cũng như chia sẻ hình ảnh do AI tạo ra của họ và “đối tác”.
Đáp lại sự giám sát ngày càng tăng, OpenAI trong tháng này đã thành lập một Hội đồng Chuyên gia về Phúc lợi và AI, bao gồm các học giả và lãnh đạo tổ chức phi lợi nhuận để giúp hướng dẫn cách sản phẩm của mình xử lý các tương tác liên quan đến sức khỏe tâm thần. Động thái này diễn ra cùng với thông báo từ CEO Sam Altman rằng công ty sẽ bắt đầu nới lỏng các hạn chế đối với nội dung người lớn vào tháng 12.