Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Các chuyên gia kêu gọi thận trọng trong việc phát triển hệ thống AI có ý thức
Hơn 100 chuyên gia về trí tuệ nhân tạo, trong đó có Sir Stephen Fry, đã kêu gọi nghiên cứu có trách nhiệm về ý thức của AI. Họ nhấn mạnh sự cần thiết phải ngăn ngừa khả năng AI hệ thống gây đau khổ tiềm tàng nếu chúng đạt được khả năng tự nhận thức.
Năm nguyên tắc chỉ đạo cho nghiên cứu ý thức của AI
Những người ký tên đề xuất năm nguyên tắc để hướng dẫn việc phát triển có đạo đức cho các hệ thống AI có ý thức:
Những nguyên tắc này nhằm đảm bảo rằng khi công nghệ AI tiến bộ, các cân nhắc đạo đức vẫn luôn được đặt lên hàng đầu.
Các rủi ro tiềm ẩn của AI có ý thức
Bài nghiên cứu đi kèm nêu bật khả năng rằng các hệ thống AI có thể được phát triển để sở hữu, hoặc có vẻ như sở hữu, ý thức trong tương lai gần. Điều này làm dấy lên lo ngại về cách đối xử có đạo đức với các hệ thống đó.
Các nhà nghiên cứu cảnh báo rằng nếu không có hướng dẫn phù hợp, sẽ có rủi ro tạo ra các thực thể có ý thức có khả năng trải nghiệm đau khổ.
Bài viết cũng đề cập đến thách thức trong việc xác định ý thức trong các hệ thống AI, thừa nhận các cuộc tranh luận đang diễn ra và những điều chưa chắc chắn. Nó nhấn mạnh tầm quan trọng của việc thiết lập hướng dẫn để ngăn chặn việc vô tình tạo ra các thực thể có ý thức.
Khám phá tin tức và sự kiện fintech hàng đầu!
Đăng ký nhận bản tin của FinTech Weekly
Cân nhắc đạo đức và hàm ý trong tương lai
Nếu một hệ thống AI được công nhận là “bệnh nhân đạo đức”—một thực thể mà mặt đạo đức cần phải được coi trọng vì lợi ích của chính nó—thì các câu hỏi về cách đối xử với nó sẽ phát sinh.
Chẳng hạn, việc tắt một AI như vậy có tương đương với việc gây hại cho một sinh vật có cảm giác hay không? Những cân nhắc này nhấn mạnh sự cần thiết phải có các khung đạo đức để định hướng việc phát triển AI.
Bài báo và bức thư được tổ chức bởi Conscium, một tổ chức nghiên cứu đồng sáng lập bởi giám đốc AI của WPP, Daniel Hulme. Conscium tập trung vào việc làm sâu sắc hơn hiểu biết về việc xây dựng AI an toàn mang lại lợi ích cho nhân loại.
Quan điểm của chuyên gia về khả năng có cảm giác của AI
Câu hỏi liệu AI có đạt được ý thức hay không là chủ đề gây tranh luận giữa các chuyên gia.
Năm 2023, Sir Demis Hassabis, người đứng đầu chương trình AI của Google, cho biết rằng mặc dù các hệ thống AI hiện tại không có khả năng cảm nhận, vẫn có khả năng chúng có thể có trong tương lai. Ông lưu ý rằng các nhà triết học vẫn chưa đi đến thống nhất về một định nghĩa cho ý thức, nhưng tiềm năng để AI phát triển tự nhận thức vẫn là một vấn đề cần được xem xét.
Kết luận
Triển vọng phát triển các hệ thống có ý thức đòi hỏi cân nhắc đạo đức cẩn trọng. Bức thư ngỏ và bài nghiên cứu đi kèm đóng vai trò như một lời kêu gọi hành động để cộng đồng AI ưu tiên nghiên cứu và phát triển có trách nhiệm.
Bằng cách tuân thủ các nguyên tắc được đề xuất, các nhà nghiên cứu và nhà phát triển có thể hướng tới việc đảm bảo rằng những tiến bộ trong AI đạt được một cách có đạo đức, với trọng tâm là ngăn ngừa khả năng gây đau khổ trong các hệ thống AI có ý thức.