Những người có ảnh hưởng AI hàng đầu 2025: Đã xác minh, Được tôn trọng, Được theo dõi

Tóm tắt

Một cái nhìn về mười nhân vật định hình tương lai của trí tuệ nhân tạo vào năm 2025 — từ các phòng thí nghiệm hoàn thiện thiết kế cốt lõi của nó đến các nhà hoạch định chính sách đang thiết lập các quy định của nó. Ý tưởng, nghiên cứu và lãnh đạo của họ đang thúc đẩy những thay đổi thực sự trong cách AI được xây dựng, chia sẻ và sử dụng trên toàn thế giới.

Những người có ảnh hưởng AI hàng đầu 2025: Đã xác minh, Được tôn trọng, Được theo dõi

Đây không phải là danh sách người nổi tiếng. Mỗi người ở đây đều có ảnh hưởng thực sự, chuyên môn rõ ràng và thành tích trong việc dẫn dắt các cuộc thảo luận trong cộng đồng AI. Quan điểm của họ quan trọng vì chúng đến từ việc xây dựng, hướng dẫn và thách thức các hệ thống đang định hình tương lai của chúng ta.

Yann LeCun vẫn là một trong những tiếng nói mạnh mẽ nhất trong AI, đặc biệt là trong nghiên cứu cơ bản. Những bình luận công khai của ông thường đi ngược lại với xu hướng hiện tại, đặc biệt là trong các cuộc tranh luận về các mô hình ngôn ngữ lớn. Ông lập luận cho các hệ thống học với ít dữ liệu hơn nhiều và tiêu tốn năng lượng đáng kể ít hơn, khác với tư tưởng "lớn hơn luôn tốt hơn".

Vị trí của LeCun trong lịch sử được xác lập bởi việc phát minh ra mạng nơ-ron tích chập (CNNs), hiện nay là điều cần thiết cho thị giác máy tính. Ngày nay, ông là một người ủng hộ hàng đầu cho học tự giám sát và trí tuệ nhân tạo tự động — những cỗ máy phát triển hiểu biết thông qua quan sát thay vì việc tiêu thụ dữ liệu vô tận.

Anh ấy hiếm khi đăng nội dung gốc trên Twitter nhưng thường xuyên chia sẻ lại hoặc liên kết đến các bài tiểu luận sâu sắc về nghiên cứu AI và thiết kế hệ thống.

  • Chủ đề chính: kiến trúc tiết kiệm năng lượng, học tập trung vào đối tượng, mô hình thế giới;
  • Đối tượng tiếp cận: Hơn 900.000 người theo dõi;
  • Điểm nổi bật: thường xuyên trao đổi kỹ thuật với các nhà nghiên cứu tại OpenAI và DeepMind;

Trong hơn ba mươi năm qua, công việc của ông đã hình thành chiến lược AI của Meta, nhằm hướng tới các hệ thống quan sát và suy nghĩ theo cách gần gũi hơn với lý luận của con người, chứ không chỉ dự đoán từ tiếp theo trong một chuỗi.

Andrej Karpathy kết hợp kỹ năng kỹ thuật sâu với cái nhìn của người đã tạo ra những sản phẩm lớn. Ông phân tích những ý tưởng phức tạp — từ thiết kế mô hình đến lựa chọn huấn luyện và rào cản triển khai — theo cách mà cả nhà nghiên cứu và những người xây dựng thực tiễn đều có thể hiểu.

Bài viết của anh ấy kết hợp cái nhìn kỹ thuật với tầm nhìn—ví dụ, gần đây anh ấy đã đề xuất rằng các mô hình ngôn ngữ lớn đang trở thành những khối xây dựng của phần mềm hiện đại.

  • Di sản: những bước đột phá sớm trong học sâu và thị giác máy tính, lãnh đạo AI tại Tesla;
  • Đạt: hơn 1 triệu người theo dõi;
  • Sự tham gia: các cuộc hội thảo thường xuyên và giáo dục cộng đồng;

Sau khi trở lại OpenAI vào năm 2024, Karpathy tập trung vào việc làm cho các mô hình dễ quản lý hơn và mở rộng chúng mà không mất kiểm soát. Ông cũng làm việc để mở rộng nhiều tài nguyên hơn cho cộng đồng nhà phát triển. Trong các bài viết của mình, ông liên kết tư duy kỹ thuật sâu sắc với công việc hàng ngày của việc xây dựng phần mềm, cung cấp cho các kỹ sư những cách thực tế để tạo ra các hệ thống có thể chịu đựng trong sử dụng thực tế.

Fei-Fei Li đã xây dựng danh tiếng của mình dựa trên việc điều chỉnh AI với nhu cầu của con người. Cô ấy thúc đẩy các thiết kế phục vụ cho chăm sóc sức khỏe, giáo dục và lợi ích công cộng cũng như phục vụ cho các chương trình của doanh nghiệp hoặc chính phủ. Cô đã dẫn dắt việc tạo ra ImageNet, một dự án đã định hình lại học sâu và để lại một trong những dấu ấn mạnh mẽ nhất trên AI ngày nay.

Các bài viết của cô ấy tập trung vào khía cạnh con người của AI - các tác động đạo đức, ảnh hưởng đến chăm sóc sức khỏe và tầm quan trọng của việc bảo vệ nhân phẩm.

  • Nổi tiếng với: ImageNet, Viện AI Tập trung vào Con người của Stanford;
  • Đối tượng: Hơn 500.000 người theo dõi, tư vấn cho cả các nhà hoạch định chính sách của Hoa Kỳ và quốc tế;
  • Tập trung hiện tại: đạo đức, khả năng tiếp cận và sự bao gồm xã hội trong các ứng dụng AI;

Cô ấy mang đến những quan điểm từ những người thường bị bỏ qua trong lĩnh vực công nghệ — chẳng hạn như nhân viên y tế, giáo viên và những người sống với khuyết tật — và giữ cho những mối quan tâm của họ luôn được chú ý. Li định hình AI có trách nhiệm là một vấn đề của sự đồng cảm, dự đoán và sự tham gia từ những tiếng nói xa xôi bên ngoài các phòng hội đồng ở Silicon Valley.

Emad Mostaque là một nhân vật định hình trong AI sinh tạo mã nguồn mở. Ông thúc đẩy việc các mô hình và tập dữ liệu trở nên dễ tiếp cận hơn, không bị kiểm soát bởi các tập đoàn lớn, ảnh hưởng đến một làn sóng các startup phát hành các hệ thống với trọng số mở.

Trên nguồn tin của mình, anh ấy chia sẻ những cập nhật sống động về AI sinh tạo mã nguồn mở và lời mời phản hồi công khai về phát triển.

  • Cột mốc: ra mắt Stable Diffusion;
  • Các lĩnh vực quan tâm: minh bạch chi phí, mở cửa hạ tầng, nguyên tắc an toàn AI;
  • Đối tượng: Hơn 250.000 người theo dõi;

Mostaque thường xuyên phân tích chi phí thực tế và những hạn chế trong việc xây dựng các mô hình tiên tiến, cung cấp cái nhìn hiếm có về ngân sách và nỗ lực kỹ thuật thúc đẩy các công cụ tạo sinh. Sự khăng khăng của anh về tính minh bạch đã thay đổi kỳ vọng về những gì mà các nhà phát triển và nhà nghiên cứu nên có khả năng kiểm tra và kiểm soát.

Nghiên cứu của Timnit Gebru về sự thiên lệch thuật toán và tính minh bạch của dữ liệu đã thay đổi cách thảo luận về sự công bằng trong AI trên quy mô toàn cầu. Cô xem xét ai nắm giữ quyền lực trong phát triển AI và cách mà quyền lực đó hình thành các kết quả.

Cô ấy sử dụng sự hiện diện của mình để làm nổi bật các vấn đề thiên kiến, thường tham khảo nghiên cứu của mình hoặc các phát triển chính sách lớn về sự công bằng trong AI.

  • Các lĩnh vực chính: thiên kiến hệ thống trong LLM, quản trị do cộng đồng dẫn dắt, tiêu chuẩn dữ liệu đạo đức;
  • Đối tượng: Hơn 160.000 người theo dõi; được trích dẫn trong các khung chính sách trên toàn thế giới;

Cô ấy xây dựng lập luận của mình dựa trên bằng chứng rõ ràng. Các nghiên cứu của cô tiết lộ cách những sai sót trong dữ liệu huấn luyện có thể dẫn đến những bất bình đẳng trong thế giới thực liên quan đến chủng tộc, giới tính và tầng lớp. Các nhà lập pháp và cơ quan quản lý hiện tham khảo nghiên cứu của cô khi định hình quy định, điều này đã khiến cô trở thành một tiếng nói quan trọng trong cuộc trò chuyện.

Chris Olah đã làm sáng tỏ một số phần phức tạp nhất của mạng nơ-ron. Những giải thích hình ảnh và kể chuyện của ông về cách mà các mô hình xử lý thông tin đã trở thành tài liệu giảng dạy tại các trường đại học và là điểm tham chiếu cho các nhà nghiên cứu an toàn AI.

Ông thường xuyên đăng cập nhật khả năng giải thích—công việc gần đây về việc mã nguồn mở phân tích mạch mô hình đã thu hút sự chú ý trong các vòng nghiên cứu an toàn.

  • Chuyên môn: công cụ giải thích, hình ảnh hóa đường quyết định;
  • Đối tượng: Hơn 150.000 người theo dõi;
  • Công việc gần đây: căn chỉnh mô hình, quy trình an toàn, AI Hiến pháp;

Bằng cách làm cho cách thức hoạt động bên trong của AI trở nên rõ ràng, Olah đã biến khả năng giải thích từ một sự tò mò học thuật thành một yêu cầu trung tâm cho sự tin cậy và an toàn. Ảnh hưởng của ông hình thành cách mà các phòng thí nghiệm và nhà hoạch định chính sách suy nghĩ về việc giám sát và hướng dẫn hành vi của mô hình.

Sara Hooker làm việc để giúp việc học máy trở nên hiệu quả hơn và dễ tiếp cận hơn. Cô ấy làm nổi bật các nhà nghiên cứu ở những khu vực có ít tài nguyên hơn, với mục tiêu phân quyền ai có thể đóng góp cho lĩnh vực này.

Các bài đăng của cô ấy nêu bật sự bao gồm trong nghiên cứu AI - cô ấy đã thu hút sự chú ý gần đây vào những giới hạn của quy định dựa trên tính toán.

  • Trọng tâm chính: mô hình thưa thớt, khả năng tái tạo, nghiên cứu AI bao trùm;
  • Đối tượng: Hơn 45,000 người theo dõi;

Công việc của cô ấy đặt câu hỏi về niềm tin rằng nghiên cứu nghiêm túc chỉ có thể diễn ra với cơ sở hạ tầng khổng lồ. Bằng cách thúc đẩy các kiến trúc hiệu quả và sự hợp tác toàn cầu, Hooker đang định hình lại kỳ vọng về cả hiệu suất và sự tham gia trong AI.

Ethan Mollick chứng minh cách các công cụ AI thay đổi cách mọi người học và làm việc. Các thí nghiệm của ông với các mô hình ngôn ngữ lớn trong lớp học và môi trường kinh doanh cung cấp kết quả cụ thể, có thể tái tạo.

Bản tin của anh ấy đưa AI vào các tình huống lớp học và văn phòng thực tế—khám phá cách thiết kế prompt và công cụ làm việc phát triển và ảnh hưởng đến việc học.

  • Lĩnh vực tập trung: LLMs ứng dụng, kỹ thuật gợi ý, quy trình làm việc hỗ trợ bởi AI;
  • Đối tượng: Hơn 280.000 người theo dõi;

Mollick làm việc bằng cách tự mình thử các công cụ, quan sát những gì xảy ra và điều chỉnh cách tiếp cận của mình trong suốt quá trình. Vòng lặp thực tiễn đó đang cung cấp cho các nhà giáo dục và chuyên gia một bản hướng dẫn để tích hợp AI với ít sự phỏng đoán.

Dario Amodei dẫn đầu một trong những nỗ lực an toàn AI được theo dõi chặt chẽ nhất. Việc phát triển Claude của Anthropic là một phần trong chiến lược lớn hơn nhằm làm cho việc mở rộng an toàn hơn mà không làm chậm đổi mới.

Anh ấy rất ít khi đăng bài, nhưng khi làm như vậy, những quan điểm của anh gây ra tranh luận - gần đây đã chỉ trích một câu chuyện mà anh mô tả là bóp méo sứ mệnh an toàn hàng đầu của Anthropic.

  • Tập trung: AI Hiến pháp, độ tin cậy của hệ thống, sự phù hợp quy mô lớn;
  • Đối tượng: Hơn 70.000 người theo dõi; được công nhận trong các phiên điều trần lập pháp và các hội nghị toàn cầu;

Phong cách điềm tĩnh của Amodei và sự nhấn mạnh vào các cơ chế kiểm soát đã biến công việc của ông thành một điểm tham chiếu cho cả ngành công nghiệp và chính phủ trong việc thiết lập kỳ vọng về giám sát mô hình.

Sự nghiệp của Grady Booch đã được xây dựng xung quanh việc thiết kế và quản lý các hệ thống phần mềm phức tạp, điều này khiến quan điểm của ông về cách mà AI hiện đại được xây dựng và duy trì trở nên đặc biệt có giá trị. Những thập kỷ dành cho việc thiết kế các hệ thống được xây dựng để tồn tại cho phép ông nhấn mạnh những gì kỹ thuật AI bền vững sẽ yêu cầu.

Giọng nói của anh kết hợp giữa góc nhìn thiết kế hệ thống sâu sắc với bối cảnh AI—mặc dù các bản cập nhật ít thường xuyên hơn, anh mang lại sự rõ ràng về kiến trúc cho cuộc tranh luận về AI.

Nổi tiếng nhất với việc tạo ra UML (Unified Modeling Language), Booch áp dụng tư duy kiến trúc nghiêm ngặt vào các câu hỏi về triển khai và độ tin cậy của AI.

  • Các chủ đề chính: thiết kế hệ thống, độ bền, đạo đức trong kỹ thuật;
  • Đối tượng: Hơn 160,000 người theo dõi trải rộng qua các cộng đồng AI và kỹ thuật truyền thống;

Ông cảnh báo rằng việc di chuyển quá nhanh có nguy cơ làm suy yếu nền tảng đã được thiết lập. Đối với ông, những tiến bộ bền vững đến từ thiết kế kiên nhẫn, thử nghiệm nghiêm ngặt và cam kết vào các thực hành kỹ thuật vững mạnh.

IN0.77%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)