Connect with us

Công nghệ

DeepSeek trở thành chủ đề nóng trong các cuộc họp báo cáo thu nhập quý này

Published

on

Nghe đọc bài
  • Các giám đốc điều hành ngày càng phải đối mặt với nhiều câu hỏi từ các nhà phân tích về tác động kinh doanh của DeepSeek.
  • Bất chấp sự xáo trộn thị trường, triển vọng ban đầu về công nghệ này nhìn chung vẫn lạc quan.
  • Business Insider sẽ tiếp tục cập nhật bài viết này khi có thêm các công ty công bố kết quả kinh doanh.

Ảnh hưởng của DeepSeek tiếp tục tạo ra những làn sóng mạnh mẽ tại Phố Wall trong các cuộc điện đàm công bố kết quả tài chính. Jonathan Raa/NurPhoto/BI

Những bất ngờ trên thị trường chứng khoán thường có cách tạo ra tiếng vang trong các cuộc họp báo cáo thu nhập tiếp theo, và tác động của DeepSeek đang gây chấn động trên Phố Wall.

Trong các cuộc gọi gần đây với các nhà phân tích, các giám đốc điều hành ngày càng phải đối mặt với nhiều câu hỏi về trí tuệ nhân tạo Trung Quốc này và ý nghĩa của nó đối với hoạt động kinh doanh của họ.

Theo tìm kiếm của AlphaSense, tên DeepSeek được nhắc đến trong ít nhất chín cuộc họp báo cáo thu nhập tuần trước, trong khi trước đó chỉ có một lần được đề cập trước thông báo gây chấn động về các mô hình AI của công ty này.

Tuy nhiên, bất chấp sự xáo trộn thị trường dẫn đến những biến động mạnh mẽ trong giá cổ phiếu của các công ty công nghệ lớn, triển vọng ban đầu về công nghệ này nhìn chung vẫn lạc quan.

Dưới đây là những gì các nhà lãnh đạo doanh nghiệp đang nói với các nhà phân tích:

AT&T

CEO của AT&T John Stankey cho rằng AI chi phí thấp sẽ dẫn đến những mô hình kinh doanh mới. Kena Betancur/VIEWpress/Getty Images/BI

CEO của AT&T John Stankey cho biết AI mới với chi phí thấp hơn “sẽ mở ra và tạo điều kiện cho các ứng dụng và mô hình kinh doanh mới.”

“Đây là một chu kỳ công nghệ mang tính bước ngoặt,” Stankey nói về AI tạo sinh. “Nó sẽ có tầm quan trọng không kém gì sự ra đời của Internet khi mọi thứ hoàn thiện.”

Stankey bổ sung rằng những đột phá mới như DeepSeek, sử dụng ít công suất xử lý hơn, tiêu thụ ít năng lượng hơn, hoạt động hiệu quả hơn trong các lĩnh vực cụ thể, hoặc có thể chạy trên thiết bị cục bộ thay vì trên đám mây, cuối cùng sẽ dẫn đến các ứng dụng và mô hình kinh doanh mới.

“Tất cả chúng ta sẽ phải luôn cảnh giác để đảm bảo sử dụng nó một cách hiệu quả, để không ai trong chúng ta rơi vào thế bất lợi so với đối thủ cạnh tranh về hiệu quả cơ cấu chi phí,” ông nói.

Flex

CEO của Flex, Revathi Advaithi, cho rằng DeepSeek có khả năng thúc đẩy nhu cầu về dịch vụ dữ liệu. Jetta Productions Inc/Getty Images/BI

Revathi Advaithi, CEO của công ty trung cấp về trung tâm dữ liệu Flex, thừa nhận “có nhiều ồn ào trong tuần này”, nhưng cho rằng bản thân DeepSeek không mang lại điều gì mới về nhu cầu cơ sở hạ tầng AI.

“Cuối cùng, mật độ tính toán vẫn là vấn đề lớn,” bà nói. “Chúng tôi nghĩ chi phí thấp hơn trong các ứng dụng như DeepSeek là điều tốt cho toàn ngành vì nó sẽ thúc đẩy tăng trưởng mạnh mẽ hơn về mặt thị trường.”

Ngoài ra, Advaithi cho biết rào cản gia nhập thấp hơn có thể kích thích đổi mới AI rộng rãi hơn, thúc đẩy nhu cầu bổ sung cho các nhà cung cấp cơ sở hạ tầng như Flex.

“Chúng tôi chưa thấy đủ tăng trưởng từ các công ty ngoài Mag Seven và chúng ta sẽ bắt đầu thấy nhiều hơn nữa,” bà nói. “Nó thực sự đẩy nhanh quá trình chuyển đổi sang AI.”

Corning

CEO của Corning, Wendell Weeks, cho rằng các mô hình AI tốt hơn vẫn cần cải tiến trong công nghệ truyền thông. Manuela Schewe-Behnisch / EyeEm/Getty Images/BI

Wendell Weeks, Giám đốc điều hành của nhà sản xuất kính Corning, công ty chế tạo sợi quang ngày càng quan trọng trong mạng tốc độ cao, cho biết cộng đồng kỹ thuật đã theo dõi DeepSeek trong vài tháng qua.

“Điều cực kỳ quan trọng cần hiểu là chúng ta cần cải thiện đáng kể chi phí đào tạo và suy luận để biến AI tạo sinh thành một mô hình kinh doanh bền vững, và quan trọng hơn, trở thành động lực tăng năng suất mà tất cả chúng ta đều kỳ vọng,” ông nói.

“Tất cả chúng tôi trong lĩnh vực này đều đang trông đợi nhiều đổi mới hơn nữa,” ông tiếp tục, đồng thời cho biết thêm rằng các mô hình AI trong tương lai sẽ tiếp tục cần cải tiến trong công nghệ tính toán và truyền thông.”

Microsoft

Microsoft CEO Satya Nadella Adek Berry/AFP via Getty Images/BI

CEO Microsoft Satya Nadella đã nhắc đến DeepSeek hai lần trong bài phát biểu chuẩn bị sẵn trong cuộc họp báo cáo thu nhập hôm thứ Tư.

Ông cho biết các máy tính xách tay Copilot+ PC, mà Microsoft gọi là “máy tính Windows nhanh nhất, thông minh nhất từng được chế tạo”, sẽ sớm có khả năng chạy các mô hình tinh chỉnh R1 của DeepSeek ngay trên thiết bị.

Khi được một nhà đầu tư hỏi về DeepSeek, ông nói, “Tôi nghĩ DeepSeek đã có một số đổi mới thực sự. Và đó là một số điều mà ngay cả OpenAI cũng đã phát hiện ra trong o1.”

Meta

Meta CEO Mark Zuckerberg Jonathan Raa/NurPhoto via Getty Images/BI

CEO Meta Mark Zuckerberg đã công nhận DeepSeek là một “đối thủ cạnh tranh mới” trong cuộc họp báo cáo thu nhập hôm thứ Tư. Một nhà đầu tư đã hỏi ông về động thái cạnh tranh trong lĩnh vực mã nguồn mở.

“Trước một số tin tức gần đây, bạn biết đấy, đối thủ mới, DeepSeek từ Trung Quốc, tôi nghĩ đó cũng là một trong những điều chúng ta đang bàn luận, sẽ có một tiêu chuẩn mã nguồn mở toàn cầu, và tôi nghĩ vì lợi thế quốc gia của chúng ta, điều quan trọng là nó phải là một tiêu chuẩn của Mỹ,” Zuckerberg nói với các nhà đầu tư.

Ông bổ sung rằng sự xuất hiện của DeepSeek “chỉ càng củng cố niềm tin của chúng tôi rằng đây là điều đúng đắn để chúng tôi tập trung vào.”

Sau đó trong cuộc gọi, ông nói rằng DeepSeek đã “làm một số điều mới mẻ” để đào tạo mô hình của họ nhanh chóng và rẻ hơn, điều mà Meta “vẫn đang tiêu hóa.” Ông thêm rằng DeepSeek đã có những tiến bộ mà Meta hy vọng sẽ áp dụng vào hệ thống của mình.

IBM

CEO Arvind Krishna cho rằng DeepSeek là một “point of validation/điểm xác nhận” cho IBM. Illustration by Piotr Swat/SOPA Images/LightRocket via Getty Images/BI

CEO của IBM Arvind Krishna đã trả lời câu hỏi về DeepSeek trong cuộc họp báo cáo thu nhập hôm thứ Tư.

Khi được hỏi về những ảnh hưởng mà DeepSeek có thể mang lại cho IBM hoặc toàn ngành, Krishna nói, “Nhìn này, tôi nghĩ DeepSeek là một điểm xác nhận.”

“Chúng tôi đã nói rất nhiều trong khoảng một năm qua rằng các mô hình nhỏ hơn và thời gian đào tạo hợp lý hơn sẽ là yếu tố thiết yếu cho việc triển khai mô hình ngôn ngữ lớn trong doanh nghiệp,” ông nói.

Giám đốc điều hành của gã khổng lồ công nghệ này bổ sung rằng IBM đã đi theo “hành trình đó” “trong hơn một năm” và họ đã thấy “chi phí suy luận giảm đến 30 lần” với những phương pháp này.

“Khi những người khác bắt đầu đi theo con đường này, chúng tôi nghĩ rằng điều này cực kỳ tốt cho các khách hàng doanh nghiệp của chúng tôi,” Krishna nói.

Apple

CEO Apple Tim Cook đã được hỏi về DeepSeek trong cuộc họp báo cáo thu nhập của công ty. Jaap Arriens/NurPhoto/Getty Images/BI

Trong cuộc họp báo cáo thu nhập quý của Apple hôm thứ Năm, một nhà phân tích đã hỏi CEO Tim Cook về quan điểm của ông đối với “tình hình DeepSeek”.

“Nhìn chung, tôi nghĩ rằng đổi mới thúc đẩy hiệu quả là điều tốt,” Cook nói. “Đó là điều bạn thấy trong mô hình đó.”

Vị CEO cho rằng “sự tích hợp chặt chẽ giữa silicon và phần mềm” của công ty sẽ tiếp tục phục vụ họ tốt.

“Từ góc độ chi tiêu vốn, chúng tôi luôn có cách tiếp cận thận trọng, có cân nhắc đối với chi tiêu của mình, và chúng tôi tiếp tục tận dụng mô hình kết hợp, mà tôi nghĩ vẫn tiếp tục phục vụ tốt,” Cook nói, đề cập đến chiến lược AI của Apple.

Palantir Technologies

Giám đốc công nghệ của Palantir cho rằng DeepSeek đã chứng minh có một cuộc chạy đua vũ trang AI. Illustration by Piotr Swat/SOPA Images/LightRocket via Getty Images/BI

Shyam Sankar, Giám đốc Công nghệ của Palantir Technologies, đã trả lời câu hỏi về DeepSeek trong cuộc họp báo cáo thu nhập của công ty vào ngày 3 tháng 2. Ông cho rằng DeepSeek đã chứng minh rằng các mô hình AI đang trở nên “phổ biến”.

“Nhưng tôi nghĩ bài học thực sự, sâu sắc hơn, là chúng ta đang trong cuộc chiến với Trung Quốc,” Sankar nói, và thêm rằng, “Chúng ta đang trong một cuộc chạy đua vũ trang AI.”

Ông cũng chỉ trích lời giải thích rằng “người Trung Quốc chỉ sao chép và chúng ta là những người duy nhất đổi mới”, có vẻ ám chỉ đến những báo cáo cho rằng DeepSeek có thể đã sao chép OpenAI.

Ông nói rằng kỹ thuật trong mô hình R1 của DeepSeek là “tinh tế” và “những tối ưu hóa mà họ đã thực hiện thực sự ấn tượng.”

“Chúng ta phải thức tỉnh với sự tôn trọng đối thủ và nhận ra rằng chúng ta đang cạnh tranh,” Sankar nói, và thêm rằng, “Chúng ta phải nhận ra rằng cuộc đua AI là cuộc đua giành tất cả.”

“Đã đến lúc phải hành động,” ông kết luận.

Google

CEO Google Sundar Pichai đã nhận xét DeepSeek đã làm “rất tốt” trong cuộc họp báo cáo thu nhập của công ty. Cesc Maymo/Getty Images

CEO Google Sundar Pichai đã nói trong cuộc họp báo cáo thu nhập vào ngày 4 tháng 2 rằng DeepSeek đã làm “rất tốt”.

“Nhìn này, tôi nghĩ đã có nhiều nhận xét về DeepSeek. Trước hết, tôi nghĩ đó là một đội ngũ xuất sắc,” ông nói với các nhà đầu tư. “Tôi nghĩ họ đã làm việc rất, rất tốt.”

Ông cho biết đối với Google, điều đó “luôn rõ ràng” rằng các mô hình tiên tiến có thể được cải thiện hiệu quả hơn theo thời gian.

Tuy nhiên, ông đã giảm nhẹ mối đe dọa từ DeepSeek, nói rằng ông nghĩ mô hình Gemini của Google là “đường biên Pareto về chi phí, hiệu suất và độ trễ.”

Ông bổ sung rằng các mô hình Flash Thinking 2.0 gần đây của Google là “một trong những mô hình hiệu quả nhất hiện có, kể cả khi so sánh với V3 và R1 của DeepSeek.”

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Công nghệ

Công Nghệ AI: Sự Chuyển Đổi Vai Trò của Lập Trình Viên Trong Kỷ Nguyên Mới

Published

on

Giới thiệu

Công nghệ AI đang thay đổi căn bản cách chúng ta phát triển phần mềm. Từ những dòng code đơn giản đến các hệ thống phức tạp, trí tuệ nhân tạo đang dần trở thành người đồng hành không thể thiếu của các lập trình viên. Tại Việt Nam, làn sóng này đang diễn ra mạnh mẽ với 80% doanh nghiệp đã ứng dụng AI trong năm qua, cao hơn mức trung bình khu vực (69%). Số lượng startup AI cũng tăng đáng kể từ 60 (2021) lên 278 (2024), cho thấy sự phát triển vượt bậc của lĩnh vực này.

Trong bối cảnh đó, vai trò của lập trình viên đang trải qua một cuộc cách mạng thầm lặng. Từ những người viết mã truyền thống, họ đang dần trở thành những “nhạc trưởng” điều phối quá trình phát triển với sự hỗ trợ của AI. Bài viết này sẽ khám phá sự chuyển đổi này, dựa trên những cuộc thảo luận chuyên sâu giữa các chuyên gia hàng đầu trong ngành.

AI Trong Phát Triển Phần Mềm: Cuộc Cách Mạng Đang Diễn Ra

Việc áp dụng AI trong phát triển phần mềm đang trở thành xu hướng tất yếu tại Việt Nam. Từ những công cụ đơn giản như gợi ý code đến những hệ thống phức tạp có khả năng tự động hóa toàn bộ quy trình phát triển, AI đang thay đổi cách chúng ta tạo ra phần mềm.

Eric Bethke, CTO tại Futurum Group, chia sẻ: “Tôi dành có lẽ 12 tiếng mỗi ngày trong Cursor.

Hiện tại, Cursor là IDE tôi yêu thích nhất. Và khi tôi muốn giải quyết một vấn đề mới, như khi tôi muốn thêm một tính năng mới, thì lời nhắc ban đầu là vô cùng quan trọng.”

Sự phát triển của công nghệ trong lĩnh vực AI đã mở ra nhiều cơ hội mới cho lập trình viên. Thay vì tập trung vào việc viết từng dòng code, họ có thể dành thời gian để suy nghĩ về giải pháp tổng thể và để AI hỗ trợ trong việc triển khai chi tiết.

Vibe Coding: Phương Pháp Lập Trình Mới Trong Kỷ Nguyên AI

Vibe coding là phương pháp lập trình mới, nơi lập trình viên làm việc cùng với AI để tạo ra mã nhanh chóng và hiệu quả. Thuật ngữ này được Andrej Karpathy đề xuất, mô tả cách các kỹ sư giàu kinh nghiệm có thể thư giãn và để các agent AI lập trình viết một lượng lớn mã, hoàn thành nhiều công việc trong thời gian ngắn.

Keith Townsend, cố vấn công nghệ trưởng tại Futurum Group, nhận xét: “AI giờ đây giống như một người thầy đồng hành, luôn kiên nhẫn vô hạn với tôi, và tôi có thể nói, ‘Cách mà tôi làm việc này 30 năm trước là như thế này. Bạn có thể giúp tôi hiểu tại sao tôi nên làm theo cách mà người ta làm trong các ngôn ngữ hiện đại không?’”

Nhiều lập trình viên đang áp dụng vibe coding để tăng năng suất và tập trung vào giải quyết vấn đề phức tạp. Tuy nhiên, cũng có những lo ngại về việc phương pháp này có thể dẫn đến các vấn đề về bảo mật và chất lượng code nếu không được sử dụng đúng cách.

Lập Trình Cặp Với AI: Tăng Năng Suất và Chất Lượng Mã

Lập trình cặp với AI là một khái niệm mới, trong đó AI đóng vai trò như một người đồng nghiệp, hỗ trợ lập trình viên trong quá trình phát triển. Eric Bethke chia sẻ trải nghiệm của mình: “Tôi đã để AI làm việc cùng mình như một lập trình viên cặp, chúng tôi cùng nhau kiểm tra lại từng file mà tôi đã thay đổi, tổng cộng 145 file. Tôi đã đi qua từng file một cách chậm rãi và xác minh lại.”

Phương pháp này không chỉ giúp tăng năng suất mà còn cải thiện chất lượng mã. AI có thể phát hiện các lỗi tiềm ẩn, đề xuất cải tiến và đảm bảo tính nhất quán trong toàn bộ codebase.

Lập Trình Viên AI: Kỹ Năng và Năng Lực Mới Cần Có

Vai trò của lập trình viên AI không chỉ là viết mã mà còn là điều phối và tối ưu hóa các công cụ AI. Trong thời đại mới, lập trình viên cần phát triển một bộ kỹ năng mới để thích nghi với sự thay đổi nhanh chóng của công nghệ.

Công Cụ AI Cho Lập Trình Viên Hiện Đại

Hiện nay, có nhiều công cụ AI hỗ trợ lập trình viên trong quá trình phát triển phần mềm:

  1. Cursor: IDE tích hợp AI, được Eric Bethke đánh giá cao
  2. GitHub Copilot: Trợ lý lập trình dựa trên AI
  3. ChatGPT và các LLM khác: Hỗ trợ giải quyết vấn đề và tạo mã
  4. AI Code Review: Tự động kiểm tra và đánh giá chất lượng mã

Eric Bethke chia sẻ về quy trình làm việc của mình: “Tôi nói, ‘Này, ừm, làm ơn tạo cho tôi một sổ tay mini bằng markdown thật ngầu dành cho tôi trong tương lai, cho bạn trong tương lai.’ Tôi rất thích trò chuyện và thân thiện với các AI. Tôi xem chúng như bạn của mình.”

Nhu cầu về lập trình viên AI tại Việt Nam đang tăng cao, đặc biệt trong các lĩnh vực fintech và y tế. Để đáp ứng nhu cầu này, Việt Nam đang đặt mục tiêu đào tạo 100.000 chuyên gia IT về AI đến năm 2025.

Công Nghệ Phát Triển Phần Mềm Hiện Đại và Tác Động của AI

Công nghệ phát triển phần mềm đã trải qua nhiều thay đổi trong những năm gần đây, và AI đang đóng vai trò quan trọng trong quá trình chuyển đổi này. Từ các phương pháp phát triển truyền thống đến DevOps và hiện tại là AI-Ops, chúng ta đang chứng kiến một cuộc cách mạng trong cách phần mềm được tạo ra.

Tự Động Hóa Trong Phát Triển Phần Mềm: Cơ Hội và Thách Thức

Tự động hóa đang thay đổi cách chúng ta phát triển phần mềm. Các công cụ AI có thể tự động hóa nhiều khía cạnh của quy trình phát triển, từ viết mã đến kiểm thử và triển khai.

Mitch Ashley, Phó Chủ tịch kiêm trưởng bộ phận DevOps và phát triển ứng dụng tại Futurum Group, nhận xét: “Phần lớn đổi mới đang diễn ra ở giai đoạn đầu của quy trình, trong tay các lập trình viên và kiểm thử viên, chủ yếu là những người làm phát triển.”

Tuy nhiên, tự động hóa cũng mang đến những thách thức. Theo một nghiên cứu, 40% việc làm IT có thể bị tự động hóa đến năm 2030. Điều này đặt ra câu hỏi về tương lai của nghề lập trình viên và cách họ có thể thích nghi với sự thay đổi này.

Vai Trò Của Lập Trình Viên Trong Thời Đại AI: Thách Thức và Cơ Hội

Vai trò của lập trình viên trong thời đại AI đang chuyển từ người viết mã sang người điều phối và tối ưu hóa các giải pháp AI. Thay vì tập trung vào việc viết từng dòng code, họ đang dần trở thành những người định hướng và giám sát quá trình phát triển.

Eric Bethke chia sẻ về trải nghiệm của mình: “Vào thứ Bảy, tôi tình cờ có một ngày thứ Bảy tuyệt vời khi vợ tôi đi vắng và tôi có cả ngày cho riêng mình. Tôi dậy lúc 8 giờ sáng và bắt đầu lập trình với Cursor rồi tôi cứ tiếp tục lần theo một ý tưởng này, rồi lại đến ý tưởng khác, cứ thế tiếp tục. Tôi không thể dừng lại được. Mãi đến 10 giờ tối hôm đó, tức là sau 14 tiếng, tôi mới hoàn thành. Và tôi đã có lẽ là PR (Pull Request) lớn nhất mà tôi từng thực hiện trong đời.”

Hiểu rõ vai trò của lập trình viên trong thời đại AI là chìa khóa để thích nghi với sự thay đổi nhanh chóng của ngành công nghệ. Những người có thể kết hợp hiệu quả giữa kỹ năng lập trình truyền thống và khả năng làm việc với AI sẽ có lợi thế lớn trong thị trường lao động.

Cách AI Thay Đổi Phát Triển Phần Mềm Tại Việt Nam

Các công ty công nghệ lớn tại Việt Nam đang dẫn đầu trong việc ứng dụng AI trong phát triển phần mềm. FPT và Viettel đang phát triển các mô hình ngôn ngữ lớn (LLM) local, tập trung vào chatbot và trợ lý ảo, cũng như ứng dụng phân tích dự đoán và phát hiện bất thường.

Việt Nam đang đầu tư mạnh mẽ vào công nghệ AI với mục tiêu đào tạo 100.000 chuyên gia IT về AI đến năm 2025. Thị trường AI dự kiến đạt 1,52 tỷ USD vào năm 2030, cho thấy tiềm năng phát triển to lớn của lĩnh vực này.

Tuy nhiên, các doanh nghiệp Việt Nam cũng đang đối mặt với nhiều thách thức trong việc áp dụng AI:

Thách thứcTỷ lệ ảnh hưởng
Độ chính xác của AI32% tổ chức gặp khó khăn
An ninh mạng38% báo cáo là mối quan ngại chính
Hệ thống dữ liệu phân mảnhẢnh hưởng đến khả năng triển khai
Thiếu nhân sự có kỹ năngCần đầu tư đào tạo liên tục

Keith Townsend chia sẻ về trải nghiệm học hỏi của mình: “Tôi có một chuỗi video tên là Zero to Builder. Mục đích không phải là dạy bạn cách lập trình. Mà là dạy bạn cách sử dụng AI để học lập trình.”

Kết Luận

Công nghệ AI đang định hình lại vai trò của lập trình viên trong ngành phát triển phần mềm. Từ những người viết mã truyền thống, họ đang dần trở thành những người điều phối và tối ưu hóa các giải pháp AI. Sự chuyển đổi này mang đến cả cơ hội và thách thức cho các lập trình viên.

Tại Việt Nam, với sự phát triển mạnh mẽ của ngành công nghệ và sự hỗ trợ từ chính phủ, lập trình viên có nhiều cơ hội để phát triển trong kỷ nguyên AI. Tuy nhiên, để thành công, họ cần liên tục cập nhật kiến thức và kỹ năng.

Continue Reading

Công nghệ

Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất

Published

on

OpenAI o3 nổi bật như một mô hình AI có khả năng lập luận mạnh mẽ nhất từ trước đến nay. Mô hình này thể hiện xuất sắc trong việc giải quyết các bài toán phức tạp và đã đạt thành tích ấn tượng với độ chính xác 91,6% trong Kỳ thi Toán học American Invitational Mathematics Examination (AIME) 2025.

Năng lực của o3 bao trùm nhiều lĩnh vực từ lập trình, toán học, khoa học cho đến nhận thức thị giác. So với phiên bản tiền nhiệm, mô hình này giảm 20% lỗi nghiêm trọng trong các tác vụ nền tảng, mặc dù tiêu tốn gấp 10 lần tài nguyên tính toán.

OpenAI o3 thể hiện bước tiến vượt bậc so với các mô hình tiền nhiệm. Kể từ ngày ra mắt 16 tháng 4 năm 2025, mô hình O-series mới nhất này áp dụng cơ chế lập luận mô phỏng, cho phép nó “suy ngẫm” trước khi đưa ra phản hồi. ChatGPT o3 tích hợp liền mạch nhiều công cụ, tạo nên trải nghiệm đa dạng. Mô hình này có khả năng tự quyết định thời điểm sử dụng tìm kiếm web và phân tích dữ liệu Python. Phiên bản o3 đầy đủ mang đến khả năng lập luận toàn diện nhất với với cửa sổ ngữ cảnh khổng lồ lên tới 200.000 token, trong khi các biến thể nhỏ gọn hơn sẽ được ra mắt trong tương lai.

Hãy cùng tìm hiểu những đặc điểm nổi bật của o3, từ khả năng lập luận trực quan đến vai trò của nó trong Khung Chuẩn bị mới “Preparedness Framework” của OpenAI. Mô hình này đánh dấu một bước tiến quan trọng khi là mô hình AI đầu tiên tích hợp các tính năng an toàn như cơ chế sắp xếp có chủ đích – một bước đột phá trong việc phát triển AI có trách nhiệm.

Video Tutorial: OpenAI o3 và o4-mini – Bước tiến mới trong AI

OpenAI o3 là gì và nó khác biệt như thế nào?

OpenAI o3 đánh dấu một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo, Ra mắt vào ngày 16 tháng 4 năm 2025, o3 là một phần trong dòng mô hình lập luận chuyên sâu của OpenAI. Trong khi các mô hình ngôn ngữ truyền thống chủ yếu tập trung vào việc tạo ra văn bản tổng quát, dòng o-series lại đi theo một hướng khác biệt. Mục tiêu của nó là nâng cao khả năng lập luận, tạo nên sự khác biệt rõ rệt so với các mô hình GPT quen thuộc của OpenAI.

Sự phát triển từ o1 đến o3

OpenAI lần đầu tiên tiết lộ o1 (tên mã “Strawberry”) vào tháng 9 năm 2024. Công ty đã mở rộng quyền truy cập o1 cho nhiều người hơn vào ngày 5 tháng 12 năm 2024. Chỉ hai tuần sau, họ đã xem trước o3 trong sự kiện ’12 Ngày Shipmas’ của họ. Tiến độ nhanh chóng này cho thấy sự cống hiến kiên định của họ đối với khả năng lập luận tốt hơn.

Những cải tiến rất ấn tượng. O3 mắc ít hơn 20% lỗi lớn so với o1 khi xử lý các nhiệm vụ thực tế khó khăn. Nó thực sự tỏa sáng trong lập trình, tư vấn kinh doanh và sáng tạo ý tưởng. Nhìn vào các thước đo cụ thể, o3 đạt độ chính xác 69,1% trong bài kiểm tra lập trình Verified SWE-bench, vượt trội hơn phiên bản tiền nhiệm. Mô hình này cũng đạt điểm ấn tượng 87,7% trong bài kiểm tra GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.

Lý do OpenAI bỏ qua phiên bản o2

Bạn có thể nhận thấy không có mô hình OpenAI o2. Công ty đã nhảy thẳng từ o1 sang o3 vì vấn đề thương hiệu—”O2″ thuộc về một công ty viễn thông Anh do Telefonica UK điều hành. Sam Altman, CEO của OpenAI, nói rằng họ đã đưa ra lựa chọn này “vì sự tôn trọng” đối với Telefonica. Quyết định đặt tên này thực sự đã giúp OpenAI bằng cách làm cho mô hình có vẻ tiên tiến hơn.

Lập luận mô phỏng (Simulated reasoning) đối đầu với các mô hình ngôn ngữ lớn truyền thống

O3 hoạt động khác với các mô hình ngôn ngữ lớn truyền thống. GPT-4 và các mô hình tương tự xuất sắc trong các tác vụ ngôn ngữ chung và nhận dạng mẫu. Tuy nhiên, O3 sử dụng lập luận mô phỏng thay đổi toàn bộ cách tiếp cận xử lý thông tin của nó.

Lập luận mô phỏng này cho phép o3 dừng lại và suy nghĩ về quá trình tư duy nội tại của nó trước khi phản hồi—tương tự như cách con người suy nghĩ. Mô hình chia các vấn đề lớn thành các phần nhỏ hơn và khám phá các cách tiếp cận khác nhau. Nó kiểm tra lập luận của chính mình trước khi đưa ra câu trả lời. Cách tiếp cận này khác với các mô hình ngôn ngữ lớn thông thường chủ yếu sử dụng nhận dạng mẫu và dự đoán.

O3 suy nghĩ cẩn thận hơn về các thách thức phức tạp cần tư duy phân tích sâu sắc. Mô hình hoạt động tốt hơn trong toán học, lập trình và lập luận khoa học. Cách tiếp cận thận trọng này dẫn đến độ chính xác cao hơn trên các vấn đề khó, mặc dù mất nhiều thời gian hơn một chút để phản hồi.

OpenAI o3 and o3-mini—12 Days of OpenAI: Day 12

Hiểu về o3-mini và o4-mini

Sự phát triển của các mô hình lập luận của OpenAI dẫn đến các phiên bản hiệu quả được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Những mô hình “mini” này cung cấp khả năng ấn tượng trong khi giữ yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn.

o3-mini là gì?

OpenAI đã cho ra mắt o3-mini vào ngày 31 tháng 1 năm 2025, đánh dấu sự xuất hiện của mô hình lập luận nhỏ gọn đầu tiên của họ. Mô hình này đáp ứng các tính năng được nhà phát triển yêu cầu nhiều nhất, bao gồm khả năng gọi hàm, Structured Outputs, và developer messages. Là một giải pháp thay thế tiết kiệm chi phí cho mô hình o3 đầy đủ, o3-mini thể hiện xuất sắc trong các lĩnh vực STEM—đặc biệt mạnh mẽ trong khoa học, toán học và lập trình—đồng thời duy trì độ trễ thấp hơn.

Các chuyên gia thử nghiệm nhận thấy o3-mini tạo ra câu trả lời chính xác và rõ ràng hơn so với o1-mini, với 56% thời gian họ ưu tiên chọn phản hồi từ o3-mini. Mô hình này giảm 39% lỗi nghiêm trọng (major errors) khi xử lý các câu hỏi nền tảng khó so với o1-mini. Thời gian phản hồi cũng được cải thiện đáng kể, nhanh hơn 24% so với o1-mini, trung bình chỉ mất 7,7 giây so với 10,16 giây của phiên bản tiền nhiệm.

Giải thích về o3-mini-low, medium và high

Ba biến thể của o3-mini tồn tại dựa trên nỗ lực lập luận: thấp, trung bình và cao. Các nhà phát triển có thể tối ưu hóa cho các trường hợp sử dụng cụ thể—chọn quá trình suy nghĩ sâu hơn cho các vấn đề phức tạp hoặc ưu tiên tốc độ khi độ trễ quan trọng.

O3-mini phù hợp với hiệu suất của o1 trong các đánh giá lập luận và trí thông minh đầy thách thức với nỗ lực lập luận trung bình, bao gồm AIME và GPQA. Các tùy chọn lập luận cao cung cấp khả năng phân tích cải thiện với chi phí thời gian phản hồi hơi lâu hơn. Vì vậy, tất cả người dùng ChatGPT trả phí đều nhận được quyền truy cập vào cả o3-mini (sử dụng lập luận trung bình theo mặc định) và o3-mini-high trong bộ chọn mô hình.

Phiên bản 1 (Dịch sát nghĩa):

O4-mini là gì và nó so sánh với o3-mini như thế nào

OpenAI đã phát hành o4-mini cùng với o3 vào ngày 16 tháng 4 năm 2025, như một mô hình nhỏ hơn được tối ưu hóa cho lập luận nhanh và tiết kiệm chi phí. Mô hình nhỏ gọn này thể hiện hiệu suất đáng chú ý cho kích thước của nó và xuất sắc trong các nhiệm vụ toán học, lập trình và thị giác.

O4-mini vượt trội hơn o3-mini trong cả các nhiệm vụ STEM và phi STEM trong các đánh giá của chuyên gia, bao gồm các lĩnh vực khoa học dữ liệu. Phản hồi của người dùng cho thấy kết quả hỗn hợp—o4-mini cung cấp thông lượng cao hơn và giới hạn sử dụng cao hơn so với o3, nhưng một số người dùng báo cáo vấn đề với việc tạo mã và tính nhất quán so với o3-mini-high.

O4-mini có các biến thể lập luận tiêu chuẩn và cao, với phiên bản cao mất nhiều thời gian hơn để tạo ra câu trả lời có khả năng đáng tin cậy hơn.

Các khả năng chính của o3

O3 của OpenAI nổi bật so với các mô hình AI truyền thống với những khả năng đột phá. Mô hình học thông qua học tăng cường quy mô lớn và thể hiện kỹ năng đáng chú ý trên nhiều lĩnh vực. Điều này khiến nó trở thành một công cụ mạnh mẽ để giải quyết các vấn đề phức tạp.

Lập luận nâng cao và chuỗi suy nghĩ

OpenAI đã huấn luyện mô hình o3 để “suy nghĩ” trước khi đưa ra câu trả lời thông qua cái mà họ gọi là “chuỗi tư duy riêng tư”. Mô hình này lập kế hoạch trước và lập luận thông qua các nhiệm vụ bằng cách thực hiện các bước suy luận trung gian để giải quyết vấn đề. O3 có khả năng phân tích các thách thức phức tạp và cân nhắc nhiều phương pháp tiếp cận khác nhau. Nó tự đánh giá quá trình lập luận của mình trước khi đưa ra câu trả lời cuối cùng. Mặc dù quá trình này đòi hỏi nhiều sức mạnh tính toán hơn và mất nhiều thời gian hơn để phản hồi, nhưng kết quả đầu ra lại chính xác hơn đáng kể.

Visual reasoning: suy nghĩ bằng hình ảnh

Một trong những bước đột phá lớn nhất của o3 là biết cách lập luận với hình ảnh trực tiếp trong chuỗi suy nghĩ của nó. Mô hình không chỉ nhìn thấy hình ảnh – nó suy nghĩ với chúng. O3 làm việc với hình ảnh do người dùng tải lên bằng cách sử dụng các công cụ khác nhau. Nó cắt, phóng to, xoay và áp dụng các kỹ thuật xử lý khác. Điều này giúp o3 phân tích hình ảnh mờ, đảo ngược hoặc chất lượng thấp. Tính năng này chứng tỏ giá trị trong việc giải thích bảng trắng (whiteboards), sơ đồ sách giáo khoa hoặc phác thảo vẽ tay (hand-drawn sketches).

Sử dụng công cụ: duyệt web, lập trình, phân tích tệp

O3 kết hợp lập luận tiên tiến với các khả năng công cụ chi tiết. Bao gồm duyệt web, lập trình Python, phân tích hình ảnh, xử lý tệp và các tính năng bộ nhớ. Các công cụ không chỉ có sẵn – o3 biết chính xác khi nào và cách sử dụng chúng trong quá trình lập luận. Ví dụ, xem cách nó tìm kiếm dữ liệu tiện ích trên web, viết mã Python để dự báo và tạo biểu đồ giải thích – tất cả trong một tương tác.

Tự kiểm tra sự thật và tính năng bộ nhớ

O3 sử dụng sự sắp xếp có cân nhắc để lập luận về các chính sách an toàn khi nó phản hồi các lời nhắc có khả năng không an toàn. Tự kiểm tra sự thật tích hợp giúp phản hồi chính xác hơn. Mô hình cũng nhớ các chi tiết hữu ích giữa các cuộc trò chuyện. Điều này dẫn đến các phản hồi được tùy chỉnh và phù hợp.

Performance trong toán học, lập trình và khoa học

O3 cho thấy kết quả đặc biệt xuất sắc trong các lĩnh vực kỹ thuật:

  • Toán học: Độ chính xác 91,6% trên AIME 2024 (so với 74,3% của o1)
  • Lập trình: Độ chính xác 69,1% trên SWE-bench Verified (so với 48,9% của o1)
  • Khoa học: Độ chính xác 83,3% trên thước đo GPQA Diamond

Safety, access, and pricing

OpenAI đang dẫn đầu trong việc triển khai an toàn và có trách nhiệm các mô hình lập luận của mình. Tài liệu an toàn mới nhất của họ cho thấy cách o3 và o4-mini áp dụng nhiều lớp bảo vệ, vừa ngăn chặn việc sử dụng sai mục đích, vừa hỗ trợ các ứng dụng có ích.

Deliberative alignment: Phương pháp an toàn mới

OpenAI đã phát triển phương pháp sắp xếp có chủ đích – một kỹ thuật an toàn đột phá giúp các mô hình lập luận hiểu trực tiếp các thông số kỹ thuật an toàn do con người viết. Khác với các phương pháp cũ, nơi các mô hình học hành vi mong muốn từ các ví dụ được gắn nhãn, o3 giờ đây có thể suy ngẫm về các thông số này trước khi đưa ra câu trả lời.

Cách tiếp cận này giúp o3 vượt trội hơn GPT-4o trong việc đáp ứng các tiêu chuẩn an toàn nội bộ và bên ngoài. Nó giảm thiểu các kết quả có hại và tránh việc từ chối không cần thiết đối với nội dung an toàn. Đây là một bước tiến vượt bậc so với các phương pháp an toàn truyền thống chỉ dựa vào đào tạo từ các ví dụ.

Preparedness Framework v2

Khung Chuẩn bị phiên bản 2 của OpenAI giờ đây xem xét năm tiêu chí rủi ro: tính khả thi, khả năng đo lường, mức độ nghiêm trọng, tính mới hoàn toàn và liệu rủi ro xảy ra tức thì hay không thể khắc phục.

Khung này đặt ra hai ngưỡng rõ ràng – Khả năng cao và Khả năng quan trọng – kèm theo các cam kết hoạt động cụ thể. O3 và o4-mini đã trải qua đánh giá trong ba lĩnh vực: mối đe dọa sinh học/hóa học, an ninh mạng và khả năng tự cải thiện của AI. Cả hai mô hình đều duy trì dưới ngưỡng ‘Cao’ của khung trong mọi hạng mục.

Cách truy cập o3 và o4-mini thông qua ChatGPT

Người dùng ChatGPT Plus, Pro và Team có thể truy cập o3, o4-mini và o4-mini-high trực tiếp từ bộ chọn mô hình. Người dùng Enterprise và Edu được truy cập một tuần sau khi phát hành ban đầu. Mỗi cấp độ đăng ký có giới hạn khác nhau:

  • Plus, Team, Enterprise & Edu: 100 tin nhắn hàng tuần với o3, 300 tin nhắn hàng ngày với o4-mini và 100 tin nhắn hàng ngày với o4-mini-high
  • Pro: Truy cập gần như không giới hạn (tùy thuộc vào các biện pháp bảo vệ tự động)
  • Miễn phí: Truy cập giới hạn vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo

Giá API và giới hạn sử dụng

Các nhà phát triển có thể sử dụng o3 qua API với giá 254.148,34 VND cho mỗi triệu token đầu vào và 1.016.593,35 VND cho mỗi triệu token đầu ra. O4-mini có giá thấp hơn ở mức 27.956,32 VND cho mỗi triệu token đầu vào và 111.825,27 VND cho mỗi triệu token đầu ra. Người dùng cần xác minh tổ chức ở cấp độ 1-3 để truy cập o3, trong khi tất cả người dùng đã xác minh có thể sử dụng o4-mini. Cả hai mô hình đều hoạt động với cửa sổ ngữ cảnh 200k token và có thể xuất ra tối đa 100k token, điều này cung cấp nhiều không gian cho các tác vụ lập luận phức tạp.

Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất

Kết luận

OpenAI o3 đánh dấu một bước ngoặt quan trọng trong lịch sử phát triển AI, khi nó vượt xa khỏi việc đơn thuần so khớp mẫu để hướng tới khả năng lập luận đích thực. Những mô hình này hứa hẹn sẽ phát triển khả năng giải quyết vấn đề ngày càng tinh vi, đi kèm với các biện pháp an toàn được cải thiện. Dòng o chứng minh rằng tương lai của AI không nằm ở việc tạo ra các phản hồi đơn thuần, mà là ở khả năng lập luận thấu đáo trước những vấn đề phức tạp

Câu hỏi thường gặp

C1. Các tính năng chính của mô hình o3 của OpenAI là gì? OpenAI o3 là một mô hình AI tiên tiến sử dụng lập luận mô phỏng để xuất sắc trong các nhiệm vụ giải quyết vấn đề phức tạp. Nó có thể tạm dừng và suy ngẫm trước khi phản hồi, có khả năng lập luận trực quan và tích hợp các công cụ khác nhau như tìm kiếm web và lập trình Python. Mô hình cũng có các biện pháp an toàn nâng cao và cửa sổ ngữ cảnh khổng lồ 200.000 token.

C2. O3 so sánh như thế nào với các mô hình AI trước đây về mặt hiệu suất? O3 thể hiện những cải tiến đáng kể so với các phiên bản tiền nhiệm, mắc ít hơn 20% lỗi lớn trong các nhiệm vụ thực tế khó khăn. Nó đạt độ chính xác 91,6% trên AIME 2025, 69,1% độ chính xác trên điểm chuẩn lập trình SWE-bench Verified, và 87,7% trên điểm chuẩn GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.

C3. O3-mini và o4-mini là gì, và chúng khác với mô hình o3 đầy đủ như thế nào? O3-mini và o4-mini là các phiên bản tinh gọn của mô hình o3, được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Chúng cung cấp khả năng ấn tượng với yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn. O3-mini có các biến thể nỗ lực lập luận thấp, trung bình và cao, trong khi o4-mini được tối ưu hóa cho lập luận nhanh, tiết kiệm chi phí.

C4. Người dùng có thể truy cập các mô hình o3 và o4-mini như thế nào? Người dùng ChatGPT Plus, Pro, Team và Enterprise có thể truy cập o3, o4-mini và o4-mini-high thông qua bộ chọn mô hình. Giới hạn sử dụng thay đổi theo cấp độ đăng ký. Đối với các nhà phát triển, cả hai mô hình đều có sẵn thông qua API với cấu trúc giá khác nhau. Người dùng miễn phí có quyền truy cập hạn chế vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo.

C5. Các biện pháp an toàn nào được triển khai trong mô hình o3? O3 kết hợp một phương pháp an toàn mới gọi là sắp xếp có cân nhắc, dạy mô hình lập luận rõ ràng về các thông số kỹ thuật an toàn. Nó cũng có khả năng tự kiểm tra sự thật và được đánh giá theo Khung Chuẩn bị v2 cập nhật của OpenAI, đánh giá rủi ro trên các tiêu chí khác nhau để đảm bảo triển khai AI có trách nhiệm.

Dieter R.

Continue Reading

Công nghệ

Khóa học AI tạo sinh 5 ngày: Livestream Ngày 1

Published

on

Chào bạn đến với khóa học AI tạo sinh 5 ngày độc đáo. Khóa học được tổ chức bởi Google trên nền tảng Kaggle. Đây là một cơ hội hiếm có để học hỏi trực tiếp từ các chuyên gia hàng đầu của Google. Đặc biệt là từ đội ngũ Google DeepMind.

Nội dung chính

Khóa Học AI Tạo Sinh 5 Ngày: Livestream Ngày 1

Paige Bailey sẽ thảo luận về các bài tập với các tác giả khóa học. Bên cạnh đó có những khách mời đặc biệt khác từ Google. Khách mời hôm nay bao gồm Warren Barkley, Logan Kilpatrick, Kieran Milan, Anant Nawalgaria, Irina Sigler và Mat Velloso.

Video có phụ đề tiếng Việt.

Video gốc (không có phụ đề tiếng Việt): https://www.youtube.com/live/WpIfAeCIFc0

Thông tin thêm

Đào Tạo Toàn Diện cho Hơn 140.000 Nhà Phát Triển

Khóa học Generative AI 5 ngày của Google không chỉ là một chuỗi bài giảng đơn thuần. Nó còn là một hành trình học tập toàn diện. Khóa học được thiết kế cẩn thận. Nhằm cung cấp kiến thức chuyên sâu về AI tạo sinh. Với số lượng hơn 140.000 nhà phát triển đã đăng ký tham gia. Đây là một trong những sự kiện quan trọng nhất từng được tổ chức cho các nhà phát triển.

Khóa học đã được thiết kế tinh tế. Kết hợp giữa lý thuyết, thực hành và tương tác cộng đồng. Nhằm giúp những người tham gia có được hiểu biết vững chắc về Gen AI. Từ cơ bản đến nâng cao.

Mỗi ngày trong khóa học đều tập trung vào một chủ đề cụ thể. Nhằm mang đến cho người học góc nhìn toàn diện về công nghệ AI tạo sinh.

  1. Ngày 1 khám phá về Các Mô hình Nền tảng và Kỹ thuật Prompt;
  2. Ngày 2 đi sâu vào Embeddings và Vector Stores/Databases;
  3. Ngày 3 tập trung vào Generative AI Agents;
  4. Ngày 4 nghiên cứu về Domain-Specific LLMs;
  5. và cuối cùng, Ngày 5 giới thiệu về MLOps cho AI tạo sinh.

Cách tiếp cận đa dạng này giúp người học có thể nắm bắt được cả lý thuyết nền tảng. Lẫn các ứng dụng thực tế của AI tạo sinh.

Trải Nghiệm Học Tập Toàn Diện Với Podcast AI, Phòng Thí Nghiệm Mã Và Tương Tác Trực Tiếp Cùng Chuyên Gia

Điểm đặc biệt của khóa học là các bài tập được thiết kế đa dạng, bao gồm podcast được tạo bởi AI (sử dụng NotebookLM), các bài báo trắng (white papers) thông tin do các chuyên gia Google viết, và các phòng thí nghiệm mã (code labs) để người học có thể trải nghiệm thực tế với Gemini API và các công cụ khác. Người học cũng có cơ hội tham gia vào các buổi phát trực tiếp với các khách mời chuyên gia từ Google, nơi họ có thể đặt câu hỏi và tương tác với những người tạo ra khóa học. Đây là cơ hội quý báu để đi sâu hơn vào các chủ đề chuyên đề và hiểu rõ hơn về ứng dụng của AI tạo sinh.

Ngoài ra, khóa học còn cung cấp một kênh Discord được hỗ trợ tích cực bởi các nhân viên Google, tạo ra một không gian cộng đồng sôi động để trao đổi kiến thức và chia sẻ trải nghiệm. Các phòng thí nghiệm mã trên Kaggle cho phép người tham gia thử nghiệm với các kỹ thuật và công cụ AI tạo sinh khác nhau, bao gồm Gemini API, Embeddings, công cụ mã nguồn mở như Langraph cũng như Vertex AI. Đối với những ai đã bỏ lỡ khóa học trực tiếp, một số nội dung phổ biến nhất đã được điều chỉnh thành định dạng tự học và có sẵn dưới dạng Kaggle Learn Guide, giúp mọi người vẫn có thể tiếp cận với kiến thức quý giá này

Danh sách tham khảo

[1] 5-Day Gen AI Intensive Course with Google Learn Guide – Kaggle
[2] Google and Kaggle launch five-day intensive Generative AI course
[3] Kaggle’s 5-Day Gen AI Intensive Course

Continue Reading

Trending