Công nghệ
Xây dựng quá mức trong AI: Một bước ngoặt hiện đại của một câu chuyện cũ
Published
9 months agoon

Về việc xây dựng quá mức, tín hiệu nhu cầu và các đợt xây dựng cơ sở hạ tầng trước đây
Xin chào các bạn,
Các cuộc gọi báo cáo thu nhập gần đây từ các công ty công nghệ lớn đã tái khẳng định cam kết của họ trong việc đổ một lượng vốn khổng lồ vào cơ sở hạ tầng liên quan đến AI. Trong bài viết này, tôi sẽ khám phá về sự đầu tư quá mức vào AI và cách nó phản ánh các đợt bùng nổ đầu tư trong quá khứ.
Sự Đầu tư Quá mức vào AI
Trong các cuộc gọi báo cáo thu nhập mới nhất, Google, Amazon, Meta và Microsoft đều chia sẻ một thông điệp chung – tiếp tục tăng cường chi tiêu vốn (capex) cho cơ sở hạ tầng AI đến năm 2025. Các con số thật đáng kinh ngạc: tổng capex hơn 50 tỷ đô la mỗi quý vào quý 4 năm nay.
Một chủ đề chung trong các cuộc gọi này là sự thừa nhận về khả năng đầu tư quá mức. Tuy nhiên, quan điểm chung rất rõ ràng: rủi ro của việc đầu tư không đủ còn đáng sợ hơn nhiều so với việc đầu tư quá mức.

Mark Zuckerberg đã lưu ý trong một cuộc phỏng vấn gần đây với Bloomberg:
“Tôi nghĩ rằng có một khả năng đáng kể là nhiều công ty đang xây dựng quá mức hiện nay, và khi nhìn lại, bạn sẽ nhận ra rằng, ‘ồ, có lẽ tất cả chúng ta đã chi tiêu nhiều hơn một vài tỷ đô la so với mức cần thiết … Mặt khác, tôi thực sự nghĩ rằng tất cả các công ty đang đầu tư đều đang đưa ra quyết định hợp lý, bởi vì hậu quả của việc tụt hậu là bạn sẽ bị mất vị thế trong công nghệ quan trọng nhất trong 10 đến 15 năm tới.”
Sundar Pichai cũng bày tỏ quan điểm tương tự trong cuộc họp báo cáo thu nhập của Google:
Và trong lĩnh vực công nghệ, khi bạn đang trải qua những giai đoạn chuyển đổi này, việc đầu tư mạnh mẽ ngay từ đầu vào một lĩnh vực định hình, đặc biệt là trong một lĩnh vực mà theo cách đòn bẩy, ảnh hưởng đến tất cả các lĩnh vực cốt lõi của chúng ta, các sản phẩm của chúng ta, bao gồm Tìm kiếm, YouTube và Các Dịch vụ Khác cũng như thúc đẩy sự tăng trưởng trong Điện toán Đám mây và hỗ trợ các khoản đặt cược đổi mới dài hạn và Các Khoản Đặt cược Khác. Đó chắc chắn là điều mà đối với chúng ta, việc tập trung vào là có ý nghĩa.
Một cách mà tôi nghĩ về điều này là khi bạn trải qua một đường cong như thế này, rủi ro của việc đầu tư không đủ lớn hơn đáng kể so với rủi ro của việc đầu tư quá mức đối với chúng ta ở đây. Nhưng tôi nghĩ rằng việc không đầu tư để đứng ở vị trí hàng đầu ở đây, theo tôi, chắc chắn có những mặt tiêu cực đáng kể hơn nhiều.
Xây dựng quá mức trong quá khứ
Đây không phải là lần đầu tiên chúng ta chứng kiến một cuộc xây dựng cơ sở hạ tầng lớn được thúc đẩy bởi nỗi sợ bỏ lỡ. Lịch sử đầy rẫy những ví dụ—từ kênh đào đến đường sắt đến viễn thông—nơi mà sự gia tăng đột ngột về đầu tư dẫn đến cả sự đổi mới và sự dư thừa.
Trong trường hợp kênh đào vào cuối thế kỷ 18, một số lượng lớn các công ty mới đã xuất hiện, huy động vốn từ công chúng đầu cơ để xây dựng cơ sở hạ tầng.
Từ cuối thế kỷ 18 đến năm 1824, hơn 60 công ty kênh đào đã được thành lập, huy động được hơn 12 triệu bảng Anh vốn mới, tương đương với khoảng 12 tỷ đô la theo giá trị tiền tệ ngày nay. Nhu cầu về cổ phiếu kênh đào lớn đến mức vốn đã được huy động rộng rãi từ việc đăng ký công khai ở quy mô chưa từng có.
Việc xây dựng viễn thông mà chúng ta thấy vào những năm 2000 thậm chí còn lấn át cả những gì chúng ta thấy trong AI ngày nay, khi gần 250 tỷ đô la chi phí vốn được chi trên toàn cầu. Cuối cùng, việc xây dựng quá mức này dẫn đến tình trạng dư thừa công suất chưa sử dụng, dẫn đến tổn thất tài chính đáng kể khi bong bóng dot-com vỡ.
Một lượng vốn khổng lồ đổ vào xây dựng cả mạng cáp quang và mạng không dây để hỗ trợ cho sự tăng trưởng dự kiến của một “thế giới kết nối”, một hiện tượng mà Internet được kỳ vọng sẽ góp phần hiện thực hóa. Phần lớn vốn trong trường hợp này đã được chuyển hướng vào tay các chính phủ dưới hình thức đấu giá giấy phép không dây. Một cuộc đấu giá giấy phép điện thoại di động thế hệ thứ ba (3g) ở Anh và Châu Âu đã dẫn đến việc 150 tỷ đô la được trả cho nhiều chính phủ Châu Âu dưới dạng tiền đấu giá, chỉ để có được quyền hoạt động. Số tiền tương tự một lần nữa được huy động để xây dựng cơ sở hạ tầng 3g trước khi có thể sử dụng giấy phép và kiếm được bất kỳ khoản doanh thu nào. Tổng chi tiêu vốn toàn cầu cho riêng lĩnh vực viễn thông vào năm 2000 là 243 tỷ đô la, một con số lớn hơn gấp hai lần rưỡi so với số tiền đầu tư năm năm trước đó . Trong con số này, các yếu tố lớn nhất liên quan đến Internet, cho dù là để truy cập băng thông rộng, mạng quang hay cơ sở hạ tầng không dây.
Một hiện tượng tương tự đã xảy ra trong ngành đường sắt khi có sự gia tăng lớn về vốn chảy vào các công ty này (và sau đó được các công ty này đầu tư), sau cơn “cơn sốt” và đầu cơ, như thể hiện rõ trong biểu đồ bên dưới về Đường sắt Anh.

Lần này có gì khác biệt?
Mặc dù lịch sử có vẻ đúng, nhưng sự bùng nổ AI ngày nay cũng có một số đặc điểm độc đáo.
I. Tín hiệu cầu mạnh
Một điểm khác biệt chính là sự hiện diện của các tín hiệu nhu cầu mạnh hơn hiện nay. Không giống như các chu kỳ trước, khi cơ sở hạ tầng được xây dựng dựa trên hy vọng và kỳ vọng rằng nhu cầu sẽ theo sau, các công ty công nghệ lớn đang thấy nhu cầu thực tế, hữu hình thúc đẩy các khoản đầu tư AI của họ.
Ví dụ, Microsoft đã nhấn mạnh sự phát triển của Azure AI đang dẫn dắt hoạt động kinh doanh đám mây của họ và họ đang thấy nhu cầu ngày càng tăng:
Tăng trưởng Azure AI, đó là nơi đầu tiên chúng ta xem xét. Sau đó, điều đó thúc đẩy phần lớn chi tiêu capex, về cơ bản, đó là tín hiệu nhu cầu vì bạn phải nhớ rằng, ngay cả trong chi tiêu vốn, vẫn có đất và có xây dựng trung tâm dữ liệu, nhưng hơn 60 phần trăm là bộ dụng cụ, chỉ được mua để suy luận và mọi thứ khác nếu có tín hiệu nhu cầu, đúng không ? Vì vậy, tôi nghĩ đó là cách chính để suy nghĩ về chu kỳ vốn.
Để đáp ứng nhu cầu ngày càng tăng đối với các sản phẩm AI và đám mây của chúng tôi, chúng tôi sẽ mở rộng quy mô đầu tư vào cơ sở hạ tầng với chi phí vốn năm tài chính 25 dự kiến sẽ cao hơn năm tài chính 24. Xin nhắc lại, các khoản chi này phụ thuộc vào tín hiệu nhu cầu và việc áp dụng các dịch vụ của chúng tôi sẽ được quản lý trong suốt cả năm.
Amazon cũng đồng tình với quan điểm này:
Nhìn về phần còn lại của năm 2024, chúng tôi kỳ vọng các khoản đầu tư vốn sẽ cao hơn trong nửa cuối năm. Phần lớn chi tiêu sẽ là để hỗ trợ nhu cầu ngày càng tăng đối với cơ sở hạ tầng AWS khi chúng tôi tiếp tục thấy nhu cầu mạnh mẽ trong cả AI tạo ra và khối lượng công việc AI không tạo ra của chúng tôi .
Nhưng không phải tất cả đều chắc chắn. Ví dụ, Meta không kỳ vọng các sản phẩm GenAI của mình sẽ mang lại doanh thu đáng kể trong thời gian tới:
Chúng tôi không kỳ vọng các sản phẩm GenAI của mình sẽ là động lực có ý nghĩa cho doanh thu vào năm 2024. Nhưng chúng tôi kỳ vọng rằng chúng sẽ mở ra những cơ hội doanh thu mới theo thời gian, cho phép chúng tôi tạo ra lợi nhuận vững chắc từ khoản đầu tư của mình
II. Tính linh hoạt của cơ sở hạ tầng
Một điểm khác biệt nữa là tính linh hoạt của cơ sở hạ tầng hiện nay – cơ sở hạ tầng có tuổi thọ sử dụng lâu dài, có thể được tái sử dụng theo nhiều cách khác nhau và một phần chi tiêu có thể phù hợp với nhu cầu thực tế.
Sundar Pichai lưu ý:
Ngay cả trong những tình huống mà chúng ta đầu tư quá mức, thì đây vẫn là những cơ sở hạ tầng có ích cho chúng ta, chúng có tuổi thọ lâu dài và chúng ta có thể áp dụng chúng trên diện rộng và chúng ta có thể giải quyết vấn đề đó .
Satya Nadella cũng đề cập đến tính linh hoạt khi chỉ chi tiêu phần lớn vốn khi cần thiết.
Tài sản, như Amy đã nói, là tài sản dài hạn, đó là đất đai và trung tâm dữ liệu, mà nhân tiện, chúng tôi thậm chí không xây dựng mọi thứ hoàn chỉnh, chúng tôi thậm chí có thể có những thứ được xây dựng một nửa, chúng tôi gọi là kệ than, v.v. Vì vậy, chúng tôi biết cách quản lý chi tiêu vốn đầu tư để xây dựng tài sản dài hạn và rất nhiều quá trình hydrat hóa bộ dụng cụ diễn ra khi chúng tôi có tín hiệu nhu cầu .
III. Tập trung và tập trung hóa
Trước đây, việc xây dựng quá mức thường do một nhóm các công ty nhỏ và các nhà đầu tư đầu cơ thúc đẩy, dẫn đến thị trường phân mảnh và kém hiệu quả. Ví dụ, sự bùng nổ của đường sắt đã chứng kiến nhiều công ty nhỏ cạnh tranh để giành tuyến đường, dẫn đến tình trạng trùng lặp và thảm họa tài chính khi lợi nhuận dự kiến không đạt được.
Ngày nay, trong khi chúng ta đã chứng kiến một loạt các công ty khởi nghiệp mới và các khoản đầu tư vốn mạo hiểm đáng kể—khoảng 20 tỷ đô la mỗi quý vào AI—thì bối cảnh lại khác. Không giống như những giai đoạn trước đó, phần lớn đầu tư vào cơ sở hạ tầng AI tập trung trong tay chỉ năm đến bảy công ty lớn. Chắc chắn, vẫn còn sự đầu cơ, đặc biệt là giữa các công ty AI được giao dịch công khai, nhưng nó vẫn chưa đạt đến đỉnh điểm của các đợt bùng nổ trong quá khứ.
Điều đặc biệt thú vị là ngay cả những công ty khởi nghiệp AI triển vọng nhất thường cũng được các công ty công nghệ lớn hơn này tài trợ tại một thời điểm nào đó trong hành trình của họ, như được nêu bật bên dưới trong biểu đồ của Apoorv’s notes bởi

Sự tập trung này đánh dấu sự thay đổi từ việc xây dựng quá mức mang tính đầu cơ, phi tập trung hơn trong quá khứ. Chu kỳ hiện tại phần lớn được thúc đẩy bởi dòng tiền tự do và lợi nhuận của các công ty công nghệ lớn này, giúp giảm bớt một số rủi ro liên quan đến việc xây dựng quá mức. Ít nhất, điều đó có nghĩa là các nhà đầu tư cá nhân đầu cơ không phải chịu trực tiếp hậu quả tiềm tàng nếu mọi thứ không diễn ra như kế hoạch.
Suy nghĩ kết thúc
Sự bùng nổ AI có những điểm tương đồng đáng kinh ngạc với các giai đoạn xây dựng quá mức trước đây—chi tiêu vốn lớn và mối đe dọa lờ mờ của tình trạng dư thừa năng lực. Nhưng lần này, tín hiệu nhu cầu mạnh mẽ và cơ sở hạ tầng thích ứng có thể dẫn đến một kết quả khác. Tuy nhiên, lịch sử vẫn có những bài học giá trị để cung cấp. Xây dựng quá mức, ngay cả khi được thúc đẩy bởi nhu cầu thực tế, cũng đi kèm với những rủi ro đáng kể. Câu hỏi lớn là liệu nhu cầu về AI có theo kịp tốc độ mở rộng nhanh chóng này hay không, hoặc liệu giống như trong các chu kỳ trước, chúng ta sẽ thấy cung vượt cầu và vượt cầu bao nhiêu.
Tất cả các trích dẫn và biểu đồ trong phần này đều lấy từ Engines that Move Markets của Alasdair Nairn
Tác giả: Tanay Jaipuria – tanayj.com – bài đăng vào ngày 19/08/2024
Link bài gốc: Overbuilding in AI: A Modern Twist on an Old Tale
Dịch giả: Hoàng Phan – KenkAI Nhiều thứ hay
(*) Bạn có thể sao chép và chia sẻ thoải mái.
(**) Follow KenkAI Nhiều thứ hay để đọc các bài dịch khác và cập nhật thông tin bổ ích hằng ngày.
You may like
Công nghệ
Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất
Published
5 days agoon
18 May, 2025
OpenAI o3 nổi bật như một mô hình AI có khả năng lập luận mạnh mẽ nhất từ trước đến nay. Mô hình này thể hiện xuất sắc trong việc giải quyết các bài toán phức tạp và đã đạt thành tích ấn tượng với độ chính xác 91,6% trong Kỳ thi Toán học American Invitational Mathematics Examination (AIME) 2025.
Năng lực của o3 bao trùm nhiều lĩnh vực từ lập trình, toán học, khoa học cho đến nhận thức thị giác. So với phiên bản tiền nhiệm, mô hình này giảm 20% lỗi nghiêm trọng trong các tác vụ nền tảng, mặc dù tiêu tốn gấp 10 lần tài nguyên tính toán.
OpenAI o3 thể hiện bước tiến vượt bậc so với các mô hình tiền nhiệm. Kể từ ngày ra mắt 16 tháng 4 năm 2025, mô hình O-series mới nhất này áp dụng cơ chế lập luận mô phỏng, cho phép nó “suy ngẫm” trước khi đưa ra phản hồi. ChatGPT o3 tích hợp liền mạch nhiều công cụ, tạo nên trải nghiệm đa dạng. Mô hình này có khả năng tự quyết định thời điểm sử dụng tìm kiếm web và phân tích dữ liệu Python. Phiên bản o3 đầy đủ mang đến khả năng lập luận toàn diện nhất với với cửa sổ ngữ cảnh khổng lồ lên tới 200.000 token, trong khi các biến thể nhỏ gọn hơn sẽ được ra mắt trong tương lai.
Hãy cùng tìm hiểu những đặc điểm nổi bật của o3, từ khả năng lập luận trực quan đến vai trò của nó trong Khung Chuẩn bị mới “Preparedness Framework” của OpenAI. Mô hình này đánh dấu một bước tiến quan trọng khi là mô hình AI đầu tiên tích hợp các tính năng an toàn như cơ chế sắp xếp có chủ đích – một bước đột phá trong việc phát triển AI có trách nhiệm.
Video Tutorial: OpenAI o3 và o4-mini – Bước tiến mới trong AI
OpenAI o3 là gì và nó khác biệt như thế nào?
OpenAI o3 đánh dấu một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo, Ra mắt vào ngày 16 tháng 4 năm 2025, o3 là một phần trong dòng mô hình lập luận chuyên sâu của OpenAI. Trong khi các mô hình ngôn ngữ truyền thống chủ yếu tập trung vào việc tạo ra văn bản tổng quát, dòng o-series lại đi theo một hướng khác biệt. Mục tiêu của nó là nâng cao khả năng lập luận, tạo nên sự khác biệt rõ rệt so với các mô hình GPT quen thuộc của OpenAI.
Sự phát triển từ o1 đến o3
OpenAI lần đầu tiên tiết lộ o1 (tên mã “Strawberry”) vào tháng 9 năm 2024. Công ty đã mở rộng quyền truy cập o1 cho nhiều người hơn vào ngày 5 tháng 12 năm 2024. Chỉ hai tuần sau, họ đã xem trước o3 trong sự kiện ’12 Ngày Shipmas’ của họ. Tiến độ nhanh chóng này cho thấy sự cống hiến kiên định của họ đối với khả năng lập luận tốt hơn.
Những cải tiến rất ấn tượng. O3 mắc ít hơn 20% lỗi lớn so với o1 khi xử lý các nhiệm vụ thực tế khó khăn. Nó thực sự tỏa sáng trong lập trình, tư vấn kinh doanh và sáng tạo ý tưởng. Nhìn vào các thước đo cụ thể, o3 đạt độ chính xác 69,1% trong bài kiểm tra lập trình Verified SWE-bench, vượt trội hơn phiên bản tiền nhiệm. Mô hình này cũng đạt điểm ấn tượng 87,7% trong bài kiểm tra GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
Lý do OpenAI bỏ qua phiên bản o2
Bạn có thể nhận thấy không có mô hình OpenAI o2. Công ty đã nhảy thẳng từ o1 sang o3 vì vấn đề thương hiệu—”O2″ thuộc về một công ty viễn thông Anh do Telefonica UK điều hành. Sam Altman, CEO của OpenAI, nói rằng họ đã đưa ra lựa chọn này “vì sự tôn trọng” đối với Telefonica. Quyết định đặt tên này thực sự đã giúp OpenAI bằng cách làm cho mô hình có vẻ tiên tiến hơn.
Lập luận mô phỏng (Simulated reasoning) đối đầu với các mô hình ngôn ngữ lớn truyền thống
O3 hoạt động khác với các mô hình ngôn ngữ lớn truyền thống. GPT-4 và các mô hình tương tự xuất sắc trong các tác vụ ngôn ngữ chung và nhận dạng mẫu. Tuy nhiên, O3 sử dụng lập luận mô phỏng thay đổi toàn bộ cách tiếp cận xử lý thông tin của nó.
Lập luận mô phỏng này cho phép o3 dừng lại và suy nghĩ về quá trình tư duy nội tại của nó trước khi phản hồi—tương tự như cách con người suy nghĩ. Mô hình chia các vấn đề lớn thành các phần nhỏ hơn và khám phá các cách tiếp cận khác nhau. Nó kiểm tra lập luận của chính mình trước khi đưa ra câu trả lời. Cách tiếp cận này khác với các mô hình ngôn ngữ lớn thông thường chủ yếu sử dụng nhận dạng mẫu và dự đoán.
O3 suy nghĩ cẩn thận hơn về các thách thức phức tạp cần tư duy phân tích sâu sắc. Mô hình hoạt động tốt hơn trong toán học, lập trình và lập luận khoa học. Cách tiếp cận thận trọng này dẫn đến độ chính xác cao hơn trên các vấn đề khó, mặc dù mất nhiều thời gian hơn một chút để phản hồi.
Hiểu về o3-mini và o4-mini
Sự phát triển của các mô hình lập luận của OpenAI dẫn đến các phiên bản hiệu quả được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Những mô hình “mini” này cung cấp khả năng ấn tượng trong khi giữ yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn.
o3-mini là gì?
OpenAI đã cho ra mắt o3-mini vào ngày 31 tháng 1 năm 2025, đánh dấu sự xuất hiện của mô hình lập luận nhỏ gọn đầu tiên của họ. Mô hình này đáp ứng các tính năng được nhà phát triển yêu cầu nhiều nhất, bao gồm khả năng gọi hàm, Structured Outputs, và developer messages. Là một giải pháp thay thế tiết kiệm chi phí cho mô hình o3 đầy đủ, o3-mini thể hiện xuất sắc trong các lĩnh vực STEM—đặc biệt mạnh mẽ trong khoa học, toán học và lập trình—đồng thời duy trì độ trễ thấp hơn.
Các chuyên gia thử nghiệm nhận thấy o3-mini tạo ra câu trả lời chính xác và rõ ràng hơn so với o1-mini, với 56% thời gian họ ưu tiên chọn phản hồi từ o3-mini. Mô hình này giảm 39% lỗi nghiêm trọng (major errors) khi xử lý các câu hỏi nền tảng khó so với o1-mini. Thời gian phản hồi cũng được cải thiện đáng kể, nhanh hơn 24% so với o1-mini, trung bình chỉ mất 7,7 giây so với 10,16 giây của phiên bản tiền nhiệm.
Giải thích về o3-mini-low, medium và high
Ba biến thể của o3-mini tồn tại dựa trên nỗ lực lập luận: thấp, trung bình và cao. Các nhà phát triển có thể tối ưu hóa cho các trường hợp sử dụng cụ thể—chọn quá trình suy nghĩ sâu hơn cho các vấn đề phức tạp hoặc ưu tiên tốc độ khi độ trễ quan trọng.
O3-mini phù hợp với hiệu suất của o1 trong các đánh giá lập luận và trí thông minh đầy thách thức với nỗ lực lập luận trung bình, bao gồm AIME và GPQA. Các tùy chọn lập luận cao cung cấp khả năng phân tích cải thiện với chi phí thời gian phản hồi hơi lâu hơn. Vì vậy, tất cả người dùng ChatGPT trả phí đều nhận được quyền truy cập vào cả o3-mini (sử dụng lập luận trung bình theo mặc định) và o3-mini-high trong bộ chọn mô hình.
Phiên bản 1 (Dịch sát nghĩa):
O4-mini là gì và nó so sánh với o3-mini như thế nào
OpenAI đã phát hành o4-mini cùng với o3 vào ngày 16 tháng 4 năm 2025, như một mô hình nhỏ hơn được tối ưu hóa cho lập luận nhanh và tiết kiệm chi phí. Mô hình nhỏ gọn này thể hiện hiệu suất đáng chú ý cho kích thước của nó và xuất sắc trong các nhiệm vụ toán học, lập trình và thị giác.
O4-mini vượt trội hơn o3-mini trong cả các nhiệm vụ STEM và phi STEM trong các đánh giá của chuyên gia, bao gồm các lĩnh vực khoa học dữ liệu. Phản hồi của người dùng cho thấy kết quả hỗn hợp—o4-mini cung cấp thông lượng cao hơn và giới hạn sử dụng cao hơn so với o3, nhưng một số người dùng báo cáo vấn đề với việc tạo mã và tính nhất quán so với o3-mini-high.
O4-mini có các biến thể lập luận tiêu chuẩn và cao, với phiên bản cao mất nhiều thời gian hơn để tạo ra câu trả lời có khả năng đáng tin cậy hơn.
Các khả năng chính của o3
O3 của OpenAI nổi bật so với các mô hình AI truyền thống với những khả năng đột phá. Mô hình học thông qua học tăng cường quy mô lớn và thể hiện kỹ năng đáng chú ý trên nhiều lĩnh vực. Điều này khiến nó trở thành một công cụ mạnh mẽ để giải quyết các vấn đề phức tạp.
Lập luận nâng cao và chuỗi suy nghĩ
OpenAI đã huấn luyện mô hình o3 để “suy nghĩ” trước khi đưa ra câu trả lời thông qua cái mà họ gọi là “chuỗi tư duy riêng tư”. Mô hình này lập kế hoạch trước và lập luận thông qua các nhiệm vụ bằng cách thực hiện các bước suy luận trung gian để giải quyết vấn đề. O3 có khả năng phân tích các thách thức phức tạp và cân nhắc nhiều phương pháp tiếp cận khác nhau. Nó tự đánh giá quá trình lập luận của mình trước khi đưa ra câu trả lời cuối cùng. Mặc dù quá trình này đòi hỏi nhiều sức mạnh tính toán hơn và mất nhiều thời gian hơn để phản hồi, nhưng kết quả đầu ra lại chính xác hơn đáng kể.
Visual reasoning: suy nghĩ bằng hình ảnh
Một trong những bước đột phá lớn nhất của o3 là biết cách lập luận với hình ảnh trực tiếp trong chuỗi suy nghĩ của nó. Mô hình không chỉ nhìn thấy hình ảnh – nó suy nghĩ với chúng. O3 làm việc với hình ảnh do người dùng tải lên bằng cách sử dụng các công cụ khác nhau. Nó cắt, phóng to, xoay và áp dụng các kỹ thuật xử lý khác. Điều này giúp o3 phân tích hình ảnh mờ, đảo ngược hoặc chất lượng thấp. Tính năng này chứng tỏ giá trị trong việc giải thích bảng trắng (whiteboards), sơ đồ sách giáo khoa hoặc phác thảo vẽ tay (hand-drawn sketches).
Sử dụng công cụ: duyệt web, lập trình, phân tích tệp
O3 kết hợp lập luận tiên tiến với các khả năng công cụ chi tiết. Bao gồm duyệt web, lập trình Python, phân tích hình ảnh, xử lý tệp và các tính năng bộ nhớ. Các công cụ không chỉ có sẵn – o3 biết chính xác khi nào và cách sử dụng chúng trong quá trình lập luận. Ví dụ, xem cách nó tìm kiếm dữ liệu tiện ích trên web, viết mã Python để dự báo và tạo biểu đồ giải thích – tất cả trong một tương tác.
Tự kiểm tra sự thật và tính năng bộ nhớ
O3 sử dụng sự sắp xếp có cân nhắc để lập luận về các chính sách an toàn khi nó phản hồi các lời nhắc có khả năng không an toàn. Tự kiểm tra sự thật tích hợp giúp phản hồi chính xác hơn. Mô hình cũng nhớ các chi tiết hữu ích giữa các cuộc trò chuyện. Điều này dẫn đến các phản hồi được tùy chỉnh và phù hợp.
Performance trong toán học, lập trình và khoa học
O3 cho thấy kết quả đặc biệt xuất sắc trong các lĩnh vực kỹ thuật:
- Toán học: Độ chính xác 91,6% trên AIME 2024 (so với 74,3% của o1)
- Lập trình: Độ chính xác 69,1% trên SWE-bench Verified (so với 48,9% của o1)
- Khoa học: Độ chính xác 83,3% trên thước đo GPQA Diamond
Safety, access, and pricing
OpenAI đang dẫn đầu trong việc triển khai an toàn và có trách nhiệm các mô hình lập luận của mình. Tài liệu an toàn mới nhất của họ cho thấy cách o3 và o4-mini áp dụng nhiều lớp bảo vệ, vừa ngăn chặn việc sử dụng sai mục đích, vừa hỗ trợ các ứng dụng có ích.
Deliberative alignment: Phương pháp an toàn mới
OpenAI đã phát triển phương pháp sắp xếp có chủ đích – một kỹ thuật an toàn đột phá giúp các mô hình lập luận hiểu trực tiếp các thông số kỹ thuật an toàn do con người viết. Khác với các phương pháp cũ, nơi các mô hình học hành vi mong muốn từ các ví dụ được gắn nhãn, o3 giờ đây có thể suy ngẫm về các thông số này trước khi đưa ra câu trả lời.
Cách tiếp cận này giúp o3 vượt trội hơn GPT-4o trong việc đáp ứng các tiêu chuẩn an toàn nội bộ và bên ngoài. Nó giảm thiểu các kết quả có hại và tránh việc từ chối không cần thiết đối với nội dung an toàn. Đây là một bước tiến vượt bậc so với các phương pháp an toàn truyền thống chỉ dựa vào đào tạo từ các ví dụ.
Preparedness Framework v2
Khung Chuẩn bị phiên bản 2 của OpenAI giờ đây xem xét năm tiêu chí rủi ro: tính khả thi, khả năng đo lường, mức độ nghiêm trọng, tính mới hoàn toàn và liệu rủi ro xảy ra tức thì hay không thể khắc phục.
Khung này đặt ra hai ngưỡng rõ ràng – Khả năng cao và Khả năng quan trọng – kèm theo các cam kết hoạt động cụ thể. O3 và o4-mini đã trải qua đánh giá trong ba lĩnh vực: mối đe dọa sinh học/hóa học, an ninh mạng và khả năng tự cải thiện của AI. Cả hai mô hình đều duy trì dưới ngưỡng ‘Cao’ của khung trong mọi hạng mục.
Cách truy cập o3 và o4-mini thông qua ChatGPT
Người dùng ChatGPT Plus, Pro và Team có thể truy cập o3, o4-mini và o4-mini-high trực tiếp từ bộ chọn mô hình. Người dùng Enterprise và Edu được truy cập một tuần sau khi phát hành ban đầu. Mỗi cấp độ đăng ký có giới hạn khác nhau:
- Plus, Team, Enterprise & Edu: 100 tin nhắn hàng tuần với o3, 300 tin nhắn hàng ngày với o4-mini và 100 tin nhắn hàng ngày với o4-mini-high
- Pro: Truy cập gần như không giới hạn (tùy thuộc vào các biện pháp bảo vệ tự động)
- Miễn phí: Truy cập giới hạn vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo
Giá API và giới hạn sử dụng
Các nhà phát triển có thể sử dụng o3 qua API với giá 254.148,34 VND cho mỗi triệu token đầu vào và 1.016.593,35 VND cho mỗi triệu token đầu ra. O4-mini có giá thấp hơn ở mức 27.956,32 VND cho mỗi triệu token đầu vào và 111.825,27 VND cho mỗi triệu token đầu ra. Người dùng cần xác minh tổ chức ở cấp độ 1-3 để truy cập o3, trong khi tất cả người dùng đã xác minh có thể sử dụng o4-mini. Cả hai mô hình đều hoạt động với cửa sổ ngữ cảnh 200k token và có thể xuất ra tối đa 100k token, điều này cung cấp nhiều không gian cho các tác vụ lập luận phức tạp.

Kết luận
OpenAI o3 đánh dấu một bước ngoặt quan trọng trong lịch sử phát triển AI, khi nó vượt xa khỏi việc đơn thuần so khớp mẫu để hướng tới khả năng lập luận đích thực. Những mô hình này hứa hẹn sẽ phát triển khả năng giải quyết vấn đề ngày càng tinh vi, đi kèm với các biện pháp an toàn được cải thiện. Dòng o chứng minh rằng tương lai của AI không nằm ở việc tạo ra các phản hồi đơn thuần, mà là ở khả năng lập luận thấu đáo trước những vấn đề phức tạp
Câu hỏi thường gặp
C1. Các tính năng chính của mô hình o3 của OpenAI là gì? OpenAI o3 là một mô hình AI tiên tiến sử dụng lập luận mô phỏng để xuất sắc trong các nhiệm vụ giải quyết vấn đề phức tạp. Nó có thể tạm dừng và suy ngẫm trước khi phản hồi, có khả năng lập luận trực quan và tích hợp các công cụ khác nhau như tìm kiếm web và lập trình Python. Mô hình cũng có các biện pháp an toàn nâng cao và cửa sổ ngữ cảnh khổng lồ 200.000 token.
C2. O3 so sánh như thế nào với các mô hình AI trước đây về mặt hiệu suất? O3 thể hiện những cải tiến đáng kể so với các phiên bản tiền nhiệm, mắc ít hơn 20% lỗi lớn trong các nhiệm vụ thực tế khó khăn. Nó đạt độ chính xác 91,6% trên AIME 2025, 69,1% độ chính xác trên điểm chuẩn lập trình SWE-bench Verified, và 87,7% trên điểm chuẩn GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
C3. O3-mini và o4-mini là gì, và chúng khác với mô hình o3 đầy đủ như thế nào? O3-mini và o4-mini là các phiên bản tinh gọn của mô hình o3, được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Chúng cung cấp khả năng ấn tượng với yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn. O3-mini có các biến thể nỗ lực lập luận thấp, trung bình và cao, trong khi o4-mini được tối ưu hóa cho lập luận nhanh, tiết kiệm chi phí.
C4. Người dùng có thể truy cập các mô hình o3 và o4-mini như thế nào? Người dùng ChatGPT Plus, Pro, Team và Enterprise có thể truy cập o3, o4-mini và o4-mini-high thông qua bộ chọn mô hình. Giới hạn sử dụng thay đổi theo cấp độ đăng ký. Đối với các nhà phát triển, cả hai mô hình đều có sẵn thông qua API với cấu trúc giá khác nhau. Người dùng miễn phí có quyền truy cập hạn chế vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo.
C5. Các biện pháp an toàn nào được triển khai trong mô hình o3? O3 kết hợp một phương pháp an toàn mới gọi là sắp xếp có cân nhắc, dạy mô hình lập luận rõ ràng về các thông số kỹ thuật an toàn. Nó cũng có khả năng tự kiểm tra sự thật và được đánh giá theo Khung Chuẩn bị v2 cập nhật của OpenAI, đánh giá rủi ro trên các tiêu chí khác nhau để đảm bảo triển khai AI có trách nhiệm.
Dieter R.

Chào bạn đến với khóa học AI tạo sinh 5 ngày độc đáo. Khóa học được tổ chức bởi Google trên nền tảng Kaggle. Đây là một cơ hội hiếm có để học hỏi trực tiếp từ các chuyên gia hàng đầu của Google. Đặc biệt là từ đội ngũ Google DeepMind.
Nội dung chính
Khóa Học AI Tạo Sinh 5 Ngày: Livestream Ngày 1
Paige Bailey sẽ thảo luận về các bài tập với các tác giả khóa học. Bên cạnh đó có những khách mời đặc biệt khác từ Google. Khách mời hôm nay bao gồm Warren Barkley, Logan Kilpatrick, Kieran Milan, Anant Nawalgaria, Irina Sigler và Mat Velloso.
Video có phụ đề tiếng Việt.
Video gốc (không có phụ đề tiếng Việt): https://www.youtube.com/live/WpIfAeCIFc0
Thông tin thêm
Đào Tạo Toàn Diện cho Hơn 140.000 Nhà Phát Triển
Khóa học Generative AI 5 ngày của Google không chỉ là một chuỗi bài giảng đơn thuần. Nó còn là một hành trình học tập toàn diện. Khóa học được thiết kế cẩn thận. Nhằm cung cấp kiến thức chuyên sâu về AI tạo sinh. Với số lượng hơn 140.000 nhà phát triển đã đăng ký tham gia. Đây là một trong những sự kiện quan trọng nhất từng được tổ chức cho các nhà phát triển.
Khóa học đã được thiết kế tinh tế. Kết hợp giữa lý thuyết, thực hành và tương tác cộng đồng. Nhằm giúp những người tham gia có được hiểu biết vững chắc về Gen AI. Từ cơ bản đến nâng cao.
Mỗi ngày trong khóa học đều tập trung vào một chủ đề cụ thể. Nhằm mang đến cho người học góc nhìn toàn diện về công nghệ AI tạo sinh.
- Ngày 1 khám phá về Các Mô hình Nền tảng và Kỹ thuật Prompt;
- Ngày 2 đi sâu vào Embeddings và Vector Stores/Databases;
- Ngày 3 tập trung vào Generative AI Agents;
- Ngày 4 nghiên cứu về Domain-Specific LLMs;
- và cuối cùng, Ngày 5 giới thiệu về MLOps cho AI tạo sinh.
Cách tiếp cận đa dạng này giúp người học có thể nắm bắt được cả lý thuyết nền tảng. Lẫn các ứng dụng thực tế của AI tạo sinh.
Trải Nghiệm Học Tập Toàn Diện Với Podcast AI, Phòng Thí Nghiệm Mã Và Tương Tác Trực Tiếp Cùng Chuyên Gia
Điểm đặc biệt của khóa học là các bài tập được thiết kế đa dạng, bao gồm podcast được tạo bởi AI (sử dụng NotebookLM), các bài báo trắng (white papers) thông tin do các chuyên gia Google viết, và các phòng thí nghiệm mã (code labs) để người học có thể trải nghiệm thực tế với Gemini API và các công cụ khác. Người học cũng có cơ hội tham gia vào các buổi phát trực tiếp với các khách mời chuyên gia từ Google, nơi họ có thể đặt câu hỏi và tương tác với những người tạo ra khóa học. Đây là cơ hội quý báu để đi sâu hơn vào các chủ đề chuyên đề và hiểu rõ hơn về ứng dụng của AI tạo sinh.
Ngoài ra, khóa học còn cung cấp một kênh Discord được hỗ trợ tích cực bởi các nhân viên Google, tạo ra một không gian cộng đồng sôi động để trao đổi kiến thức và chia sẻ trải nghiệm. Các phòng thí nghiệm mã trên Kaggle cho phép người tham gia thử nghiệm với các kỹ thuật và công cụ AI tạo sinh khác nhau, bao gồm Gemini API, Embeddings, công cụ mã nguồn mở như Langraph cũng như Vertex AI. Đối với những ai đã bỏ lỡ khóa học trực tiếp, một số nội dung phổ biến nhất đã được điều chỉnh thành định dạng tự học và có sẵn dưới dạng Kaggle Learn Guide, giúp mọi người vẫn có thể tiếp cận với kiến thức quý giá này
Danh sách tham khảo
[1] 5-Day Gen AI Intensive Course with Google Learn Guide – Kaggle
[2] Google and Kaggle launch five-day intensive Generative AI course
[3] Kaggle’s 5-Day Gen AI Intensive Course
Công nghệ
AI Cách Mạng: Khởi Nghiệp Công Nghệ Tương Lai Ngay
Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.
Published
3 months agoon
23 February, 2025
Khởi nghiệp AI đang định hình tương lai kinh doanh. Với sức mạnh công nghệ, startup AI giải phóng tiềm năng sáng tạo, tối ưu hóa quy trình và mở ra những cơ hội kinh doanh chưa từng có trong kỷ nguyên số.
DeepSeek đang tạo ra một bước ngoặt mới cho Thung lũng Silicon.
Hầu như ngày nào, doanh nhân Grant Lee cũng được các nhà đầu tư thuyết phục xuống tiền. Một số người thậm chí còn gửi cho ông và những người đồng sáng lập khác nhiều giỏ quà đắt đỏ để lấy lòng.
Ông Lee, 41 tuổi, trước đây đã giúp thành lập một công ty khởi nghiệp AI có tên Gamma. Giống như nhiều startup trẻ khác ở Thung lũng Silicon, Gamma theo đuổi một chiến lược mới: sử dụng các công cụ trí tuệ nhân tạo để tăng năng suất của nhân viên, từ dịch vụ khách hàng, tiếp thị đến mã hóa và nghiên cứu.
Điều đó có nghĩa là Gamma không cần thêm tiền mặt nữa, ông Lee cho biết. Công ty của ông chỉ tuyển dụng 28 người cũng có thể tạo ra hàng chục triệu USD doanh thu định kỳ hàng năm với gần 50 triệu người dùng. Gamma cũng có lãi.
Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.
Mô hình Thung lũng Silicon cũ chỉ ra rằng các công ty khởi nghiệp nên huy động một khoản tiền lớn từ các nhà đầu tư mạo hiểm, sau đó chi tiền thuê một đội ngũ nhân viên để mở rộng quy mô. Trong khi đó, Gamma vẫn kiếm được tiền và phát triển nhanh chóng dù không cần vốn tài trợ hay số lượng lớn nhân viên.
Những câu chuyện thành công này đã thu hút sự chú ý của Thung lũng Silicon. Anysphere, một công ty khởi nghiệp tạo ra phần mềm mã hóa Cursor, đạt doanh thu 100 triệu USD trong vòng chưa đầy hai năm với chỉ 20 nhân viên. ElevenLabs, một công ty A.I. công ty khởi nghiệp bằng giọng nói, cũng làm nên kỳ tích tương tự với khoảng 50 nhân sự.
Khả năng A.I. cho phép các công ty khởi nghiệp làm được nhiều việc hơn với ít nhân viên hơn đã dẫn đến những suy đoán hoang đường về tương lai. Sam Altman, giám đốc điều hành của OpenAI, dự đoán rằng một ngày nào đó có thể có một công ty một người trị giá 1 tỷ USD.

Với các công cụ A.I., một số công ty khởi nghiệp hiện đang tuyên bố ngừng tuyển dụng ở một quy mô nhất định. Runway Financial, một công ty phần mềm tài chính, cho biết chỉ tuyển tối đa 100 nhân viên vì mỗi người sẽ tăng năng suất gấp rưỡi. Agency, startup sử dụng A.I. cho dịch vụ khách hàng, cũng có kế hoạch tuyển dụng không quá 100 nhân viên.
“Mục đích là loại bỏ những vai trò không cần thiết”, Elias Torres, người sáng lập Agency, cho biết.
Ý tưởng này được thúc đẩy bởi DeepSeek, công ty khởi nghiệp A.I. của Trung Quốc xây dựng các công cụ trí tuệ nhân tạo với chi phí chỉ bằng một phần nhỏ so với chi phí thông thường. Bước đột phá, được xây dựng trên các công cụ nguồn mở có sẵn miễn phí trực tuyến, đã tạo ra sự bùng nổ của các công ty xây dựng sản phẩm mới giá rẻ.
“DeepSeek là một bước ngoặt”, Gaurav Jain, một nhà đầu tư tại công ty đầu tư mạo hiểm Afore Capital, đơn vị đã hỗ trợ Gamma, cho biết. “Chi phí điện toán sẽ giảm rất, rất nhanh, rất nhanh”.

Ông Jain so sánh các công ty khởi nghiệp A.I. mới với làn sóng cuối những năm 2000, sau khi Amazon bắt đầu cung cấp các dịch vụ điện toán đám mây giá rẻ. Điều đó đã làm giảm chi phí thành lập công ty, dẫn đến một loạt các công ty khởi nghiệp mới có thể được xây dựng với chi phí rẻ.
Trước cơn sốt A.I. này, các công ty khởi nghiệp thường đốt 1 triệu USD để đạt được doanh thu 1 triệu USD. Bây giờ, để đạt được doanh thu 1 triệu USD, chi phí chỉ bằng 1/5 và cuối cùng có thể giảm xuống còn 1/10, theo phân tích của Afore đối với 200 công ty khởi nghiệp.
Ông Jain cho biết: “Lần này, chúng tôi đang tự động hóa con người chứ không chỉ tự động hóa các trung tâm dữ liệu”.
Tuy nhiên, nếu các công ty khởi nghiệp vẫn có thể có lãi mà không cần chi nhiều tiền, điều đó có thể trở thành vấn đề lớn đối với các nhà đầu tư mạo hiểm, những người phân bổ hàng chục tỷ USD để đầu tư vào các công ty khởi nghiệp A.I. Năm ngoái, các công ty A.I. đã huy động được 97 tỷ USD tiền tài trợ, chiếm 46% tổng số tiền đầu tư mạo hiểm tại Mỹ, theo PitchBook.
“Vốn đầu tư mạo hiểm chỉ hiệu quả nếu bạn rót tiền vào những người chiến thắng”, Terrence Rohan, một nhà đầu tư của Quỹ Otherwise, tập trung vào các công ty khởi nghiệp rất trẻ, cho biết.
“Nếu người chiến thắng trong tương lai cần ít tiền hơn, không biết dòng vốn đầu tư mạo hiểm sẽ ra sao?”.
Hiện tại, các nhà đầu tư vẫn tiếp tục đấu tranh để đầu tư vào các công ty đang phát triển mạnh nhất, nhiều công ty trong số đó không cần thêm tiền. Một số nhà đầu tư lạc quan rằng hiệu quả do A.I. thúc đẩy sẽ thôi thúc các doanh nhân thành lập nhiều công ty hơn, dẫn đến nhiều cơ hội đầu tư hơn. Họ hy vọng khi các công ty khởi nghiệp đạt đến một quy mô nhất định, họ sẽ áp dụng mô hình cũ là các nhóm lớn và tiền lớn.
Quay trở lại với Gamma.
Ông Lee cho biết ông đang có kế hoạch tăng gấp đôi lực lượng lao động trong năm nay lên 60, tuyển dụng cho bộ phận thiết kế, kỹ thuật và bán hàng. Nhân sự phải có kiến thức tổng quát có thể thực hiện nhiều nhiệm vụ thay vì một việc như trước đây. Theo ông Lee, mô hình hiệu quả với AI đã giúp giải phóng thời gian. Bây giờ ông chỉ việc tập trung tư vấn khách hàng và cải thiện sản phẩm.
“Đó thực sự là giấc mơ của mọi nhà sáng lập”, ông Lee nói.
Theo: Financial Times, WSJ
Hashtags: #StartupAI #CongNgheKhoiNghiep #KinhDoanhCongNghe #AIKhaiPha #StartupCongNghe
Nguồn: markettimes.vn / 21-Feb-2025 / https://markettimes.vn/deepseek-khoi-phat-ky-nguyen-startup-gia-re-chi-20-nhan-su-cung-tao-ra-hang-chuc-trieu-usd-cac-cong-ty-khong-con-khat-tien-mat-77486.html
Trending
-
Khóa học9 months ago
41 Tài Nguyên Về “Reinforcement Learning” (Học Tăng Cường) Tốt Nhất
-
Video3 months ago
Video Truyền Cảm Hứng Thành Công Mạnh Mẽ Nhất
-
Khóa học6 months ago
Đây là 38 Khóa học Miễn phí về Khoa học Dữ liệu trên Coursera mà bạn nên biết vào năm 2024.
-
Công nghệ9 months ago
44 công ty khởi nghiệp AI triển vọng nhất năm 2024
-
Công nghệ6 months ago
Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1
-
Công nghệ5 months ago
Câu chuyện tình yêu ❤️Ch3
-
Công nghệ8 months ago
Robo Advisor là gì?
-
Giải trí5 months ago
Câu chuyện tình yêu ❤️Ch4