Deepfake, một điều mới lạ, đã nhanh chóng trở thành một mối đe dọa hệ thống đối với doanh nghiệp, xã hội và nền dân chủ—đòi hỏi sự điều chỉnh khẩn cấp, các công cụ phát hiện mạnh mẽ và sự hiểu biết truyền thông vững vàng để bảo vệ sự tin cậy trong thế giới số.
Deepfake không còn là một điều mới lạ. Chúng đang nhanh chóng trở thành một mối đe dọa hệ thống đối với doanh nghiệp, xã hội và nền dân chủ. Theo Nghị viện Châu Âu, khoảng 8 triệu deepfake sẽ được chia sẻ vào năm 2025, tăng từ chỉ 0,5 triệu vào năm 2023. Tại Vương quốc Anh, hai trong năm người tuyên bố đã gặp phải ít nhất một deepfake trong sáu tháng qua. Nhưng trước đây khi chúng có thể dễ dàng được phát hiện, sự tinh vi ngày càng tăng của các mô hình AI có sẵn công khai đã làm cho việc phát hiện trở nên khó khăn hơn bao giờ hết.
Những tiến bộ trong mạng đối kháng sinh điều kiện (GANs) và các mô hình khuếch tán đã trở thành yếu tố thúc đẩy sự phát triển của các deepfake tiên tiến, siêu thực. Cả hai công nghệ này đều đóng vai trò quan trọng trong việc cho phép hoán đổi khuôn mặt và điều chỉnh giọng nói một cách liền mạch trong các cuộc gọi video trực tiếp hoặc phát trực tuyến. Điều này đã cải thiện rất nhiều trải nghiệm của người dùng, với khả năng như hình đại diện ảo làm cho trò chơi và các cuộc họp trở nên cá nhân hóa và hấp dẫn hơn. Nhưng nó cũng đã mở ra cánh cửa cho các trò lừa đảo mạo danh theo thời gian thực.
Bạn có thể nghĩ rằng chỉ những người chưa được đào tạo mới không nhận ra sự giả mạo của một người mà họ biết rõ và tin tưởng. Nhưng vào tháng 5 năm ngoái, một nhóm lừa đảo đã giả mạo một quản lý cấp cao tại công ty kỹ thuật Arup, thành công thuyết phục một nhân viên trong bộ phận tài chính chuyển 200 triệu HKD vào năm tài khoản ngân hàng địa phương. Các cuộc tấn công tương tự giả mạo các nhân viên cấp cao và giám đốc điều hành đã được thực hiện chống lại các công ty như Ferrari, WPP và Wiz trong vòng 12 tháng qua, làm suy yếu sự tin tưởng vào các giao tiếp kỹ thuật số.
Công nghệ nhân bản giọng nói cũng đã bùng nổ cùng với deepfake. Công nghệ tổng hợp giọng nói dựa trên AI hiện nay có khả năng sao chép giọng nói con người với độ chính xác đáng kinh ngạc. Thật ngạc nhiên, chỉ cần vài giây âm thanh là đủ để tạo ra một bản sao gần như hoàn hảo. Điều đó có thể rất tuyệt cho mọi loại ứng dụng sáng tạo, chẳng hạn như sách nói cá nhân hóa hoặc lồng ghép, nhưng nó có tiềm năng gây ra tổn hại to lớn.
Vào tháng 7 năm nay, một người phụ nữ ở Florida đã bị lừa giao nộp 15.000 USD tiền bảo lãnh sau khi nghe thấy điều mà cô tin là con gái cô đang kêu cứu sau một vụ tai nạn xe hơi. Người gọi, một bản sao AI giả danh con gái cô, cuối cùng đã chuyển cuộc gọi cho một luật sư giả, người đã cung cấp hướng dẫn cho việc chuyển tiền. Việc những bản sao này được tạo ra chỉ từ những đoạn âm thanh nhỏ của người khác, mà có thể dễ dàng tìm thấy qua các kênh truyền thông xã hội, làm nổi bật tiềm năng bị lạm dụng.
Trên mạng xã hội, ranh giới giữa thực tế và hư cấu đang mờ nhạt. Các nhân vật ảo do AI tạo ra chiếm ưu thế trong lĩnh vực marketing trực tuyến, cung cấp cho các thương hiệu những nhân vật có thể kiểm soát hoàn toàn. Khán giả hiện nay phải điều hướng một thế giới mà các nhân vật hợp pháp và nhân tạo gần như không thể phân biệt được, đặt ra các câu hỏi về tính xác thực trong truyền thông. Tại Hollywood, deepfake được sử dụng để làm trẻ hóa các diễn viên hoặc tái tạo các nhân vật lịch sử. Trong khi điều đó mang lại cho các công ty sản xuất khả năng cải thiện chất lượng nội dung của họ với chi phí tương đối thấp, nó cũng cung cấp cho những kẻ lừa đảo phương tiện để tái tạo một hình ảnh thuyết phục của các nhân vật nổi tiếng và sử dụng nó để gây ra tranh cãi.
Nhưng mức độ nghiêm trọng cao hơn nhiều so với việc đại diện sai lệch về người nổi tiếng. Deepfake có thể được sử dụng để gieo rắc sự chia rẽ chính trị, bằng cách lan truyền các câu chuyện sai lệch hoặc chế tạo video về các nhân vật chính trị phát biểu những lời nói dối. Hậu quả có thể rất nghiêm trọng, ảnh hưởng đến công chúng, thay đổi hướng đi của các cuộc bầu cử quốc gia, và có khả năng làm độc hại diễn đàn chính trị toàn cầu.
Đối mặt với nhiều mối đe dọa như vậy, các chính phủ trên toàn thế giới đang phản ứng. Ở châu Âu, Đạo luật AI chứa một điều khoản yêu cầu dán nhãn bắt buộc đối với nội dung được tạo ra hoặc chỉnh sửa bằng sự trợ giúp của AI, và phải được dán nhãn như vậy để người dùng nhận thức được nguồn gốc của nó. Trong khi đạo luật không cấm hoàn toàn deepfake, nó cấm việc sử dụng các hệ thống AI thao túng người một cách kín đáo trong một số bối cảnh nhất định. Một số chính phủ đang tích cực sử dụng hoặc đầu tư vào các công nghệ phát hiện có thể xác định những thay đổi tinh vi trong giọng nói, khuôn mặt hoặc hình ảnh.
Nhưng quy định vẫn theo sau công nghệ. Việc gán nhãn bắt buộc, các thuật toán phát hiện tác phẩm AI, và pháp y âm thanh là một phần quan trọng của giải pháp, nhưng việc dập tắt mối đe dọa deepfake cần một chiến lược rộng hơn và toàn diện hơn. Quy định vững chắc và hướng dẫn đạo đức, cùng với việc đầu tư vào hiểu biết về truyền thông, có vai trò ngang bằng, nếu không muốn nói là lớn hơn, trong việc chống lại gian lận và thông tin sai lệch từ deepfake.
Các quy định và hướng dẫn đạo đức phải trở nên chủ động hơn, với việc đánh dấu và tiêu chuẩn công khai bắt buộc trở thành những đặc điểm thông thường trong bất kỳ chiến lược deepfake nào. Trong khi đó, giáo dục truyền thông phải được coi là một ưu tiên. Người dân phải được trang bị kỹ năng tư duy phản biện để đặt câu hỏi về những gì họ thấy và nghe. Chỉ bằng cách làm việc cùng nhau, giữa các nhà quản lý, khu vực tư nhân và xã hội dân sự, chúng ta mới có thể bảo vệ cuộc sống kỹ thuật số và đảm bảo mối đe dọa deepfake trở thành quá khứ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Lập luận cho việc quy định Deepfake
Tóm tắt
Deepfake, một điều mới lạ, đã nhanh chóng trở thành một mối đe dọa hệ thống đối với doanh nghiệp, xã hội và nền dân chủ—đòi hỏi sự điều chỉnh khẩn cấp, các công cụ phát hiện mạnh mẽ và sự hiểu biết truyền thông vững vàng để bảo vệ sự tin cậy trong thế giới số.
Deepfake không còn là một điều mới lạ. Chúng đang nhanh chóng trở thành một mối đe dọa hệ thống đối với doanh nghiệp, xã hội và nền dân chủ. Theo Nghị viện Châu Âu, khoảng 8 triệu deepfake sẽ được chia sẻ vào năm 2025, tăng từ chỉ 0,5 triệu vào năm 2023. Tại Vương quốc Anh, hai trong năm người tuyên bố đã gặp phải ít nhất một deepfake trong sáu tháng qua. Nhưng trước đây khi chúng có thể dễ dàng được phát hiện, sự tinh vi ngày càng tăng của các mô hình AI có sẵn công khai đã làm cho việc phát hiện trở nên khó khăn hơn bao giờ hết.
Những tiến bộ trong mạng đối kháng sinh điều kiện (GANs) và các mô hình khuếch tán đã trở thành yếu tố thúc đẩy sự phát triển của các deepfake tiên tiến, siêu thực. Cả hai công nghệ này đều đóng vai trò quan trọng trong việc cho phép hoán đổi khuôn mặt và điều chỉnh giọng nói một cách liền mạch trong các cuộc gọi video trực tiếp hoặc phát trực tuyến. Điều này đã cải thiện rất nhiều trải nghiệm của người dùng, với khả năng như hình đại diện ảo làm cho trò chơi và các cuộc họp trở nên cá nhân hóa và hấp dẫn hơn. Nhưng nó cũng đã mở ra cánh cửa cho các trò lừa đảo mạo danh theo thời gian thực.
Bạn có thể nghĩ rằng chỉ những người chưa được đào tạo mới không nhận ra sự giả mạo của một người mà họ biết rõ và tin tưởng. Nhưng vào tháng 5 năm ngoái, một nhóm lừa đảo đã giả mạo một quản lý cấp cao tại công ty kỹ thuật Arup, thành công thuyết phục một nhân viên trong bộ phận tài chính chuyển 200 triệu HKD vào năm tài khoản ngân hàng địa phương. Các cuộc tấn công tương tự giả mạo các nhân viên cấp cao và giám đốc điều hành đã được thực hiện chống lại các công ty như Ferrari, WPP và Wiz trong vòng 12 tháng qua, làm suy yếu sự tin tưởng vào các giao tiếp kỹ thuật số.
Công nghệ nhân bản giọng nói cũng đã bùng nổ cùng với deepfake. Công nghệ tổng hợp giọng nói dựa trên AI hiện nay có khả năng sao chép giọng nói con người với độ chính xác đáng kinh ngạc. Thật ngạc nhiên, chỉ cần vài giây âm thanh là đủ để tạo ra một bản sao gần như hoàn hảo. Điều đó có thể rất tuyệt cho mọi loại ứng dụng sáng tạo, chẳng hạn như sách nói cá nhân hóa hoặc lồng ghép, nhưng nó có tiềm năng gây ra tổn hại to lớn.
Vào tháng 7 năm nay, một người phụ nữ ở Florida đã bị lừa giao nộp 15.000 USD tiền bảo lãnh sau khi nghe thấy điều mà cô tin là con gái cô đang kêu cứu sau một vụ tai nạn xe hơi. Người gọi, một bản sao AI giả danh con gái cô, cuối cùng đã chuyển cuộc gọi cho một luật sư giả, người đã cung cấp hướng dẫn cho việc chuyển tiền. Việc những bản sao này được tạo ra chỉ từ những đoạn âm thanh nhỏ của người khác, mà có thể dễ dàng tìm thấy qua các kênh truyền thông xã hội, làm nổi bật tiềm năng bị lạm dụng.
Trên mạng xã hội, ranh giới giữa thực tế và hư cấu đang mờ nhạt. Các nhân vật ảo do AI tạo ra chiếm ưu thế trong lĩnh vực marketing trực tuyến, cung cấp cho các thương hiệu những nhân vật có thể kiểm soát hoàn toàn. Khán giả hiện nay phải điều hướng một thế giới mà các nhân vật hợp pháp và nhân tạo gần như không thể phân biệt được, đặt ra các câu hỏi về tính xác thực trong truyền thông. Tại Hollywood, deepfake được sử dụng để làm trẻ hóa các diễn viên hoặc tái tạo các nhân vật lịch sử. Trong khi điều đó mang lại cho các công ty sản xuất khả năng cải thiện chất lượng nội dung của họ với chi phí tương đối thấp, nó cũng cung cấp cho những kẻ lừa đảo phương tiện để tái tạo một hình ảnh thuyết phục của các nhân vật nổi tiếng và sử dụng nó để gây ra tranh cãi.
Nhưng mức độ nghiêm trọng cao hơn nhiều so với việc đại diện sai lệch về người nổi tiếng. Deepfake có thể được sử dụng để gieo rắc sự chia rẽ chính trị, bằng cách lan truyền các câu chuyện sai lệch hoặc chế tạo video về các nhân vật chính trị phát biểu những lời nói dối. Hậu quả có thể rất nghiêm trọng, ảnh hưởng đến công chúng, thay đổi hướng đi của các cuộc bầu cử quốc gia, và có khả năng làm độc hại diễn đàn chính trị toàn cầu.
Đối mặt với nhiều mối đe dọa như vậy, các chính phủ trên toàn thế giới đang phản ứng. Ở châu Âu, Đạo luật AI chứa một điều khoản yêu cầu dán nhãn bắt buộc đối với nội dung được tạo ra hoặc chỉnh sửa bằng sự trợ giúp của AI, và phải được dán nhãn như vậy để người dùng nhận thức được nguồn gốc của nó. Trong khi đạo luật không cấm hoàn toàn deepfake, nó cấm việc sử dụng các hệ thống AI thao túng người một cách kín đáo trong một số bối cảnh nhất định. Một số chính phủ đang tích cực sử dụng hoặc đầu tư vào các công nghệ phát hiện có thể xác định những thay đổi tinh vi trong giọng nói, khuôn mặt hoặc hình ảnh.
Nhưng quy định vẫn theo sau công nghệ. Việc gán nhãn bắt buộc, các thuật toán phát hiện tác phẩm AI, và pháp y âm thanh là một phần quan trọng của giải pháp, nhưng việc dập tắt mối đe dọa deepfake cần một chiến lược rộng hơn và toàn diện hơn. Quy định vững chắc và hướng dẫn đạo đức, cùng với việc đầu tư vào hiểu biết về truyền thông, có vai trò ngang bằng, nếu không muốn nói là lớn hơn, trong việc chống lại gian lận và thông tin sai lệch từ deepfake.
Các quy định và hướng dẫn đạo đức phải trở nên chủ động hơn, với việc đánh dấu và tiêu chuẩn công khai bắt buộc trở thành những đặc điểm thông thường trong bất kỳ chiến lược deepfake nào. Trong khi đó, giáo dục truyền thông phải được coi là một ưu tiên. Người dân phải được trang bị kỹ năng tư duy phản biện để đặt câu hỏi về những gì họ thấy và nghe. Chỉ bằng cách làm việc cùng nhau, giữa các nhà quản lý, khu vực tư nhân và xã hội dân sự, chúng ta mới có thể bảo vệ cuộc sống kỹ thuật số và đảm bảo mối đe dọa deepfake trở thành quá khứ.