Sam Altman: OpenAI đã chi tiêu hàng triệu đô la để đối phó với các từ "làm ơn, cảm ơn" của người dùng ChatGPT.

Giám đốc điều hành OpenAI Sam Altman tiết lộ một sự thật đáng ngạc nhiên: việc người dùng thế giới sử dụng ChatGPT quá lịch sự đang khiến gã khổng lồ AI tốn thêm hàng triệu đô la mỗi năm do chi phí tính toán tăng lên vô hình. (Tóm tắt: OpenAI phát hành o3 và o4-mini Mô hình suy luận mạnh nhất: có thể suy nghĩ về hình ảnh, tự động chọn công cụ và vượt qua hiệu suất toán học và mã hóa) (Bổ sung nền: OpenAI bí mật tạo nền tảng cộng đồng của riêng mình, chỉ vào X của Musk) Trong lĩnh vực trí tuệ nhân tạo, hiệu quả và kiểm soát chi phí là những chủ đề vĩnh cửu, và Sam Altman, Giám đốc điều hành của OpenAI, gần đây đã chỉ ra một nguồn chi phí bất ngờ trong một cuộc trò chuyện công khai - Ngôn ngữ lịch sự từ người dùng. Altman nói rằng khi nhiều người dùng sử dụng ChatGPT, họ có thói quen thêm "làm ơn", "cảm ơn", "có thể vui lòng giúp tôi... Có phải không?" và các từ lịch sự khác, mặc dù có ý nghĩa trong quan hệ giữa các cá nhân, là chi phí tính toán bổ sung cho các mô hình ngôn ngữ. Cái giá của sự lịch sự của con người Altman đã đề cập trong bài đăng rằng những từ lịch sự này tốn hàng chục triệu đô la để trả lời và người ta hiểu rằng các mô hình ngôn ngữ lớn như ChatGPT xử lý lời nhắc nhập của người dùng bằng cách chia văn bản thành các đơn vị nhỏ nhất gọi là mã thông báo để hiểu và tạo. Mã thông báo có thể là một phần của một từ, một từ hoàn chỉnh hoặc dấu chấm câu. Lời nhắc đầu vào của người dùng càng dài, càng có nhiều mã thông báo được bao gồm và mô hình cần tiêu thụ một lượng tài nguyên máy tính nhất định để xử lý mỗi mã thông báo, có thể chỉ là một phần nhỏ trong tổng chi phí của OpenAI (bao gồm đào tạo mô hình, bảo trì máy chủ, đầu tư R &D, v.v.), nhưng nó tiết lộ rằng ngay cả các mẫu hành vi người dùng nhỏ cũng có thể có tác động kinh tế đáng kể trong các ứng dụng AI quy mô lớn. Token Kinh tế năng lượng Khi người dùng nhập câu hỏi hoặc hướng dẫn vào ChatGPT, trước tiên, hệ thống sẽ chia nhỏ văn bản của bạn thành các chuỗi mã thông báo, chẳng hạn như "Vui lòng cho tôi biết thời tiết hôm nay như thế nào?" Có thể được chia thành những thứ như ["làm ơn", "nói", "tôi", "hôm nay", "thời tiết", "làm thế nào", "?? ] một mã thông báo như vậy. Và một lệnh ngắn gọn hơn "Thời tiết hôm nay?" Nó chỉ có thể được chia thành ["hôm nay", "thời tiết", "?" ], có nghĩa là điều tương tự, và có thể tiêu tốn thêm chi phí tùy thuộc vào số lượng từ nguyên. Mô hình sau đó thực hiện giai đoạn "Suy luận" dựa trên số lượng từ nguyên, thường thì càng nhập nhiều mã thông báo, mô hình càng cần xử lý nhiều thông tin ban đầu và đầu vào dài hơn đôi khi có thể dẫn đến phản hồi dài hơn, làm tăng thêm lượng tính toán ở đầu ra. Việc xử lý mỗi mã thông báo yêu cầu một GPU mạnh mẽ cho các hoạt động ma trận. Tuy nhiên, nhiều người dùng đã phản hồi nhận xét của Ultraman, ngoài vấn đề chi phí, con người thực sự phóng chiếu nhu cầu lịch sự trên lời nói sang trí tuệ nhân tạo, đó có thể là lý do tại sao khả năng đối thoại của ChatGPT rất mượt mà và tự nhiên, giúp người dùng dễ dàng nhìn thấy nó như một đối tác trò chuyện giống con người trong tiềm thức. Cả hai con người đã thiết lập các chuẩn mực sâu xa như giao tiếp trong xã hội, và nó cũng là một chi phí bổ sung cho con người để từ bỏ các chuẩn mực này vì máy móc, và cũng có thể vô thức tuân theo các chuẩn mực này, và các phương pháp đặt câu hỏi lịch sự hơn có thể giúp có được câu trả lời thân thiện hoặc hợp tác hơn, từ đó có thể đạt được mục tiêu trả lời thỏa mãn hơn cho con người. Nói chung, thật thú vị khi nói về việc ChatGPT tăng thêm hàng triệu đô la chi phí do lịch sự của người dùng từ góc độ Altman, tiết lộ không chỉ chi phí tính toán đáng kinh ngạc đằng sau các dịch vụ AI quy mô lớn mà còn gây áp lực lên các nhà cung cấp dịch vụ để cung cấp sức mạnh tính toán. Và nhu cầu của người dùng cũng đã thúc đẩy các mô hình trở thành kết quả tự nhiên hơn, và nhìn chung, trong kỷ nguyên của trí tuệ nhân tạo và mô hình ngôn ngữ, người tiêu dùng có thể là người chiến thắng lớn nhất. Tin liên quan GPT-5 bị hoãn! OpenAI lần đầu đẩy o3, o4-mini, Sam Altman tiết lộ: tích hợp khó hơn tưởng tượng OpenAI công bố: Open Agents SDK hỗ trợ MCP, kết nối mọi thứ và thực hiện một bước quan trọng OpenAI mở khóa Deep Research: Người dùng trả phí có thể truy vấn 10 lần một tháng, Microsoft phát hành đại lý AI đa phương thức Magma (Sam Altman: OpenAI chi hàng chục triệu đô la để đáp lại người dùng ChatGPT "làm ơn, Cảm ơn" trên từ〉Bài viết này lần đầu tiên được xuất bản trong "Xu hướng năng động - Phương tiện truyền thông tin tức Blockchain có ảnh hưởng nhất" của BlockTempo.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)