Công nghệ
Giám đốc phụ trách chip AI của Amazon nói với BI tại sao Nvidia không phải là đối thủ cạnh tranh, Anthropic giúp đỡ như thế nào, và AMD cần gì 🤖💼🔍
Published
6 months agoon

- 🚀 AWS đã ra mắt các chip AI mới cạnh tranh với GPU của Nvidia.
- 💻 AWS cho biết mục tiêu của họ là cung cấp thêm lựa chọn cho khách hàng, không phải để hạ bệ Nvidia trong thị trường chip AI.
- 🤝 Gadi Hutt, một giám đốc cấp cao tại AWS, cũng đã nói về các hợp tác với Intel, Anthropic và AMD.

Amazon Web Services đã ra mắt một dòng chip AI nâng cấp trong tuần này, đặt công ty vào vị trí cạnh tranh trực tiếp với Nvidia. Tuy nhiên, AWS không nhìn nhận vấn đề theo cách đó.
Gadi Hutt, giám đốc cấp cao phụ trách kỹ thuật khách hàng và sản phẩm tại công ty con thiết kế chip của AWS, Annapurna Labs, cho biết các chip AI mới của AWS không nhằm mục đích cạnh tranh trực tiếp với Nvidia. Mục tiêu là cung cấp cho khách hàng một lựa chọn có chi phí thấp hơn, vì thị trường đủ lớn cho nhiều nhà cung cấp, Hutt chia sẻ trong một cuộc phỏng vấn với Business Insider tại hội nghị re:Invent của AWS.
“Đây không phải là về việc lật đổ Nvidia,” Hutt nói, và thêm rằng, “Đây thực sự là về việc mang đến cho khách hàng những lựa chọn.”
AWS đã chi hàng chục tỷ đô la cho trí tuệ nhân tạo tạo sinh. Tuần này, công ty đã công bố chip AI tiên tiến nhất của mình, có tên là Trainium 2, có chi phí thấp hơn khoảng 40% so với GPU của Nvidia, và một cụm siêu máy tính mới sử dụng các chip này, được gọi là Project Rainier. Các phiên bản trước đây của chip AI của AWS đã có kết quả không đồng đều.
Hutt khẳng định rằng đây không phải là một cuộc cạnh tranh mà là một nỗ lực chung nhằm mở rộng quy mô tổng thể của thị trường. Hồ sơ khách hàng và khối lượng công việc AI mà họ nhắm đến cũng khác nhau. Ông còn nói thêm rằng các GPU của Nvidia sẽ vẫn giữ vị trí thống trị trong tương lai gần.
Trong cuộc phỏng vấn, Hutt đã thảo luận về sự hợp tác giữa AWS và Anthropic, công ty dự kiến sẽ là khách hàng đầu tiên của Dự án Rainer. Hai công ty đã làm việc chặt chẽ với nhau trong năm qua, và gần đây Amazon đã đầu tư thêm 4 tỷ đô la vào công ty khởi nghiệp AI này.
Ông cũng chia sẻ suy nghĩ của mình về mối quan hệ đối tác giữa AWS và Intel, công ty mà CEO Pat Gelsinger vừa mới nghỉ hưu. Ông nói rằng AWS sẽ tiếp tục làm việc với gã khổng lồ chip đang gặp khó khăn này vì nhu cầu của khách hàng đối với các chip máy chủ của Intel vẫn còn cao.
Năm ngoái, AWS đã nói rằng họ đang cân nhắc việc bán các chip AI mới của AMD. Tuy nhiên, Hutt cho biết những chip này vẫn chưa có sẵn trên AWS vì khách hàng chưa thể hiện nhu cầu mạnh mẽ.
Phần hỏi đáp này đã được chỉnh sửa để đảm bảo rõ ràng và ngắn gọn.
There have been a lot of headlines saying Amazon is out to get Nvidia with its new AI chips. Can you talk about that?
Đã có rất nhiều tiêu đề nói rằng Amazon đang nhắm vào Nvidia với các chip AI mới của mình. Bạn có thể nói về điều đó không?
Tôi thường xem những tiêu đề này và cười khúc khích một chút vì thực sự, nó không phải là về việc hạ bệ Nvidia. Nvidia là một đối tác rất quan trọng đối với chúng tôi. Thực sự là về việc mang đến cho khách hàng nhiều lựa chọn hơn.
Chúng ta còn nhiều việc phải làm để đảm bảo rằng chúng ta liên tục cho phép nhiều khách hàng hơn có khả năng sử dụng những con chip này. Và Nvidia không hề đi đâu cả. Họ có một giải pháp tốt và một lộ trình vững chắc. Chúng tôi vừa mới công bố các phiên bản P6 [máy chủ AWS với GPU Blackwell mới nhất của Nvidia], vì vậy cũng có sự đầu tư liên tục vào dòng sản phẩm của Nvidia. Điều này thực sự là để mang lại cho khách hàng nhiều lựa chọn. Không có gì hơn thế.
Nvidia là một nhà cung cấp tuyệt vời của AWS, và khách hàng của chúng tôi rất yêu thích Nvidia. Tôi sẽ không đánh giá thấp Nvidia dưới bất kỳ hình thức nào.
So you want to see Nvidia’s use case increase on AWS?
Vậy bạn muốn thấy trường hợp sử dụng của Nvidia tăng lên trên AWS?
Nếu khách hàng tin rằng đó là cách họ cần phải làm, thì họ sẽ làm theo. Tất nhiên, nếu điều đó tốt cho khách hàng, nó cũng sẽ tốt cho chúng tôi.
Thị trường rất lớn, vì vậy có chỗ cho nhiều nhà cung cấp ở đây. Chúng tôi không ép buộc bất kỳ ai phải sử dụng những con chip đó, nhưng chúng tôi đang nỗ lực rất nhiều để đảm bảo rằng các nguyên tắc chính của chúng tôi, đó là hiệu suất cao và chi phí thấp hơn, sẽ được hiện thực hóa để mang lại lợi ích cho khách hàng của chúng tôi.
Does it mean AWS is OK being in second place?
Điều đó có nghĩa là AWS chấp nhận ở vị trí thứ hai?
Đây không phải là một cuộc thi. Không có lễ trao giải học máy nào được tổ chức hàng năm cả.
Trong trường hợp của một khách hàng như Anthropic, có bằng chứng khoa học rất rõ ràng rằng cơ sở hạ tầng tính toán lớn hơn cho phép bạn xây dựng các mô hình lớn hơn với nhiều dữ liệu hơn. Và nếu bạn làm điều đó, bạn sẽ đạt được độ chính xác cao hơn và hiệu suất tốt hơn.
Khả năng của chúng tôi trong việc mở rộng công suất lên hàng trăm nghìn chip Trainium 2 mang đến cho họ cơ hội để đổi mới những điều mà trước đây họ không thể làm được. Họ đạt được mức tăng năng suất gấp 5 lần.
Is being No. 1 important?
Việc trở thành số 1 có quan trọng không?
Thị trường đủ lớn. Vị trí số 2 là một vị trí rất tốt để đạt được.
Tôi không nói rằng mình là số 2 hay số 1 đâu nhé. Nhưng đó thực sự không phải là điều tôi đang nghĩ đến. Chúng ta vẫn còn rất sớm trong hành trình của mình trong lĩnh vực học máy nói chung, trong ngành công nghiệp nói chung, và cũng cả trong lĩnh vực chip cụ thể, chúng tôi chỉ đang tập trung phục vụ các khách hàng như Anthropic, Apple và tất cả các khách hàng khác.
Chúng tôi thậm chí không làm phân tích cạnh tranh với Nvidia. Tôi không chạy các bài kiểm tra hiệu năng so với Nvidia. Tôi không cần phải làm vậy.
Ví dụ, có MLPerf, một tiêu chuẩn đánh giá hiệu suất trong ngành. Các công ty tham gia vào MLPerf có các kỹ sư hiệu suất làm việc chỉ để cải thiện các chỉ số MLPerf.
Đó hoàn toàn là một sự phân tâm đối với chúng tôi. Chúng tôi không tham gia vào điều đó vì chúng tôi không muốn lãng phí thời gian vào một tiêu chuẩn đánh giá không tập trung vào khách hàng.
On the surface, it seems like helping companies grow on AWS isn’t always beneficial for AWS’s own products because you’re competing with them?
Nhìn bề ngoài, có vẻ như việc giúp các công ty phát triển trên AWS không phải lúc nào cũng có lợi cho các sản phẩm của chính AWS vì bạn đang cạnh tranh với họ?
Chúng tôi là cùng một công ty mà Netflix đang chạy tốt nhất trên đó, và chúng tôi cũng có Prime Video. Đó là một phần văn hóa của chúng tôi.
Tôi phải nói rằng có rất nhiều khách hàng vẫn đang sử dụng GPU. Nhiều khách hàng yêu thích GPU, và họ không có ý định chuyển sang Trainium trong tương lai gần. Và điều đó cũng không sao, bởi vì, một lần nữa, chúng tôi đang cung cấp cho họ các lựa chọn và họ quyết định những gì họ muốn làm.
Do you see these AI tools becoming more commoditized in the future?
Bạn có thấy những công cụ AI này sẽ trở nên phổ biến hơn trong tương lai không?
Tôi thực sự hy vọng vậy.
Khi chúng tôi bắt đầu việc này vào năm 2016, vấn đề là không có hệ điều hành nào cho học máy (machine learning). Vì vậy, chúng tôi thực sự phải phát minh ra tất cả các công cụ xung quanh những con chip này để làm cho chúng hoạt động cho khách hàng của chúng tôi một cách suôn sẻ nhất có thể.
Nếu học máy trở nên phổ biến ở cả phía phần mềm và phần cứng, đó là điều tốt cho tất cả mọi người. Điều đó có nghĩa là việc sử dụng những giải pháp đó trở nên dễ dàng hơn. Tuy nhiên, việc vận hành học máy một cách có ý nghĩa vẫn là một nghệ thuật.
What are some of the different types of workloads customers might want to run on GPUs versus Trainium?
Một số loại khối lượng công việc khác nhau mà khách hàng có thể muốn chạy trên GPU so với Trainium là gì?
GPU là bộ xử lý đa năng hơn cho học máy. Tất cả các nhà nghiên cứu và nhà khoa học dữ liệu trên thế giới đều biết cách sử dụng Nvidia khá tốt. Nếu bạn phát minh ra điều gì đó mới, nếu bạn làm điều đó trên GPU, thì mọi thứ sẽ hoạt động.
Nếu bạn phát minh ra điều gì đó mới trên các chip chuyên dụng, bạn sẽ phải đảm bảo công nghệ trình biên dịch hiểu được những gì bạn vừa xây dựng hoặc tạo ra kernel tính toán riêng cho khối lượng công việc đó. Chúng tôi chủ yếu tập trung vào các trường hợp sử dụng mà khách hàng nói với chúng tôi rằng, ‘Này, đây là những gì chúng tôi cần.’ Thường thì những khách hàng chúng tôi có được là những người đang thấy chi phí tăng lên là một vấn đề và đang cố gắng tìm kiếm các giải pháp thay thế.
So the most advanced workloads are usually reserved for Nvidia chips?
Vậy những khối lượng công việc tiên tiến nhất thường được dành riêng cho các chip của Nvidia?
Thông thường. Nếu các chuyên gia khoa học dữ liệu cần liên tục chạy các thí nghiệm, họ có thể sẽ làm điều đó trên một cụm GPU. Khi họ biết họ muốn làm gì, đó là lúc họ có nhiều lựa chọn hơn. Đó là nơi mà Trainium thực sự tỏa sáng, bởi vì nó mang lại hiệu suất cao với chi phí thấp hơn.
AWS CEO Matt Garman previously said the vast majority of workloads will continue to be on Nvidia?
CEO của AWS Matt Garman trước đây đã nói rằng phần lớn khối lượng công việc sẽ tiếp tục được thực hiện trên Nvidia?
Điều đó có lý. Chúng tôi mang lại giá trị cho những khách hàng có chi tiêu lớn và đang cố gắng tìm cách kiểm soát chi phí tốt hơn một chút. Khi Matt nói về phần lớn khối lượng công việc, ý anh ấy là chụp ảnh y tế, nhận dạng giọng nói, dự báo thời tiết, và tất cả các loại công việc mà chúng tôi không thực sự tập trung vào ngay bây giờ bởi vì chúng tôi có những khách hàng lớn yêu cầu chúng tôi làm những việc lớn hơn. Vì vậy, tuyên bố đó là hoàn toàn chính xác 100%.
Nói tóm lại, chúng tôi muốn tiếp tục là nơi tốt nhất cho GPU và, tất nhiên, cả Trainium khi khách hàng cần đến.
What has Anthropic done to help AWS in the AI space?
Anthropic đã làm gì để giúp AWS trong lĩnh vực AI?
Họ có những ý kiến rất mạnh mẽ về những gì họ cần, và họ quay lại với chúng tôi và nói, ‘Này, chúng ta có thể thêm tính năng A vào chip tương lai của bạn không?’ Đó là một cuộc đối thoại. Một số ý tưởng họ đưa ra thậm chí không khả thi để thực hiện trong một mảnh silicon. Chúng tôi thực sự đã triển khai một số ý tưởng, và đối với những ý tưởng khác, chúng tôi đã quay lại với một giải pháp tốt hơn.
Bởi vì họ là những chuyên gia trong việc xây dựng các mô hình nền tảng, điều này thực sự giúp chúng tôi tập trung vào việc xây dựng các chip thực sự giỏi trong những gì chúng làm.
Chúng tôi vừa công bố Dự án Rainier cùng nhau. Đây là một ai đó muốn sử dụng rất nhiều chip đó càng nhanh càng tốt. Đây không chỉ là một ý tưởng – chúng tôi thực sự đang xây dựng nó.
Can you talk about Intel? AWS’s Graviton chips are replacing a lot of Intel chips at AWS data centers.
Bạn có thể nói về Intel không? Các chip Graviton của AWS đang thay thế rất nhiều chip Intel tại các trung tâm dữ liệu của AWS.
Tôi sẽ sửa lại cho bạn ở đây. Graviton không thay thế x86. Không phải là chúng tôi đang loại bỏ x86 và đặt Graviton vào vị trí đó. Nhưng một lần nữa, theo nhu cầu của khách hàng, hơn 50% số lần triển khai CPU gần đây của chúng tôi là Graviton.
Điều đó có nghĩa là nhu cầu của khách hàng đối với Graviton đang tăng lên. Nhưng chúng tôi vẫn đang bán rất nhiều lõi x86 cho khách hàng của mình, và chúng tôi nghĩ rằng chúng tôi là nơi tốt nhất để làm điều đó. Chúng tôi không cạnh tranh với các công ty này, mà chúng tôi coi họ như những nhà cung cấp tốt, và chúng tôi có rất nhiều việc kinh doanh cần làm cùng nhau.
How important is Intel going forward?
Intel sẽ quan trọng như thế nào trong tương lai?
Họ chắc chắn sẽ tiếp tục là một đối tác tuyệt vời cho AWS. Có rất nhiều trường hợp sử dụng chạy rất tốt trên các lõi Intel. Chúng tôi vẫn đang triển khai chúng. Không có ý định dừng lại. Thực sự là theo nhu cầu của khách hàng.
Is AWS still considering selling AMD’s AI chips?
AWS có còn đang xem xét việc bán các chip AI của AMD không?
AMD là một đối tác tuyệt vời cho AWS. Chúng tôi bán rất nhiều CPU AMD cho khách hàng dưới dạng các phiên bản máy chủ ảo.
Dòng sản phẩm học máy luôn được xem xét. Nếu khách hàng thể hiện mạnh mẽ rằng họ cần nó, thì không có lý do gì để không triển khai nó.
And you’re not seeing that yet for AMD’s AI chips?
Và bạn chưa thấy điều đó đối với các chip AI của AMD?
Chưa.
How supportive are Amazon CEO Andy Jassy and Garman of the AI chip business?
CEO của Amazon Andy Jassy và Garman ủng hộ mảng kinh doanh chip AI như thế nào?
Họ rất ủng hộ. Chúng tôi gặp họ thường xuyên. Có rất nhiều sự tập trung từ ban lãnh đạo trong công ty để đảm bảo rằng những khách hàng cần giải pháp ML sẽ nhận được chúng.
Cũng có rất nhiều sự hợp tác trong công ty với các nhóm khoa học và dịch vụ đang xây dựng các giải pháp trên những con chip đó. Các nhóm khác trong Amazon, như Rufus, trợ lý AI có sẵn cho tất cả khách hàng Amazon, chạy hoàn toàn trên các chip Inferentia và Trainium.
Tác giả: Eugene Kim,
Link bài gốc: Amazon’s AI chip executive tells BI why Nvidia is not a competitor, how Anthropic helps, and what AMD needs | Bài được đăng vào Ngày 07 tháng 12 năm 2024 | www.businessinsider.com
Dịch giả: Dieter R – KenkAI Nhiều thứ hay
(*) Bản quyền bản dịch thuộc về Dieter R. Tuy nhiên, nội dung bài viết không phải do tôi tạo ra. Mọi khiếu nại về bản quyền (nếu có) xin vui lòng gửi email đến địa chỉ purchasevn@getkenka.com. Xin chân thành cảm ơn.
(**) Follow KenkAI Nhiều thứ hay để đọc các bài dịch khác và cập nhật thông tin bổ ích hằng ngày.
You may like
-
Anthropic vừa phát hành mô hình AI nhỏ nhất và tiên tiến nhất của mình
-
Kết quả huấn luyện trợ lý AI tiếng Việt của Viettel Solutions và Nvidia
-
Cuộc trò chuyện với Abridge, Anthropic, Perplexity và Scale AI
-
Mức lương trung bình hàng năm của Intel đã bị đình trệ so với các đối thủ như Nvidia và Microsoft
-
Jensen Huang nói rằng 3 yếu tố của việc mở rộng quy mô AI đều đang tiến triển. Nhu cầu về Blackwell của Nvidia sẽ chứng minh điều đó.
-
Phố Wall tập trung cao độ vào chip Blackwell mới của Nvidia khi gã khổng lồ AI tiến tới thu nhập quý 3
Công nghệ
Công Nghệ AI: Sự Chuyển Đổi Vai Trò của Lập Trình Viên Trong Kỷ Nguyên Mới
Published
14 hours agoon
11 June, 2025
Giới thiệu
Công nghệ AI đang thay đổi căn bản cách chúng ta phát triển phần mềm. Từ những dòng code đơn giản đến các hệ thống phức tạp, trí tuệ nhân tạo đang dần trở thành người đồng hành không thể thiếu của các lập trình viên. Tại Việt Nam, làn sóng này đang diễn ra mạnh mẽ với 80% doanh nghiệp đã ứng dụng AI trong năm qua, cao hơn mức trung bình khu vực (69%). Số lượng startup AI cũng tăng đáng kể từ 60 (2021) lên 278 (2024), cho thấy sự phát triển vượt bậc của lĩnh vực này.
Trong bối cảnh đó, vai trò của lập trình viên đang trải qua một cuộc cách mạng thầm lặng. Từ những người viết mã truyền thống, họ đang dần trở thành những “nhạc trưởng” điều phối quá trình phát triển với sự hỗ trợ của AI. Bài viết này sẽ khám phá sự chuyển đổi này, dựa trên những cuộc thảo luận chuyên sâu giữa các chuyên gia hàng đầu trong ngành.
AI Trong Phát Triển Phần Mềm: Cuộc Cách Mạng Đang Diễn Ra
Việc áp dụng AI trong phát triển phần mềm đang trở thành xu hướng tất yếu tại Việt Nam. Từ những công cụ đơn giản như gợi ý code đến những hệ thống phức tạp có khả năng tự động hóa toàn bộ quy trình phát triển, AI đang thay đổi cách chúng ta tạo ra phần mềm.
Eric Bethke, CTO tại Futurum Group, chia sẻ: “Tôi dành có lẽ 12 tiếng mỗi ngày trong Cursor.
Hiện tại, Cursor là IDE tôi yêu thích nhất. Và khi tôi muốn giải quyết một vấn đề mới, như khi tôi muốn thêm một tính năng mới, thì lời nhắc ban đầu là vô cùng quan trọng.”
Sự phát triển của công nghệ trong lĩnh vực AI đã mở ra nhiều cơ hội mới cho lập trình viên. Thay vì tập trung vào việc viết từng dòng code, họ có thể dành thời gian để suy nghĩ về giải pháp tổng thể và để AI hỗ trợ trong việc triển khai chi tiết.
Vibe Coding: Phương Pháp Lập Trình Mới Trong Kỷ Nguyên AI
Vibe coding là phương pháp lập trình mới, nơi lập trình viên làm việc cùng với AI để tạo ra mã nhanh chóng và hiệu quả. Thuật ngữ này được Andrej Karpathy đề xuất, mô tả cách các kỹ sư giàu kinh nghiệm có thể thư giãn và để các agent AI lập trình viết một lượng lớn mã, hoàn thành nhiều công việc trong thời gian ngắn.
Keith Townsend, cố vấn công nghệ trưởng tại Futurum Group, nhận xét: “AI giờ đây giống như một người thầy đồng hành, luôn kiên nhẫn vô hạn với tôi, và tôi có thể nói, ‘Cách mà tôi làm việc này 30 năm trước là như thế này. Bạn có thể giúp tôi hiểu tại sao tôi nên làm theo cách mà người ta làm trong các ngôn ngữ hiện đại không?’”
Nhiều lập trình viên đang áp dụng vibe coding để tăng năng suất và tập trung vào giải quyết vấn đề phức tạp. Tuy nhiên, cũng có những lo ngại về việc phương pháp này có thể dẫn đến các vấn đề về bảo mật và chất lượng code nếu không được sử dụng đúng cách.
Lập Trình Cặp Với AI: Tăng Năng Suất và Chất Lượng Mã
Lập trình cặp với AI là một khái niệm mới, trong đó AI đóng vai trò như một người đồng nghiệp, hỗ trợ lập trình viên trong quá trình phát triển. Eric Bethke chia sẻ trải nghiệm của mình: “Tôi đã để AI làm việc cùng mình như một lập trình viên cặp, chúng tôi cùng nhau kiểm tra lại từng file mà tôi đã thay đổi, tổng cộng 145 file. Tôi đã đi qua từng file một cách chậm rãi và xác minh lại.”
Phương pháp này không chỉ giúp tăng năng suất mà còn cải thiện chất lượng mã. AI có thể phát hiện các lỗi tiềm ẩn, đề xuất cải tiến và đảm bảo tính nhất quán trong toàn bộ codebase.
Lập Trình Viên AI: Kỹ Năng và Năng Lực Mới Cần Có
Vai trò của lập trình viên AI không chỉ là viết mã mà còn là điều phối và tối ưu hóa các công cụ AI. Trong thời đại mới, lập trình viên cần phát triển một bộ kỹ năng mới để thích nghi với sự thay đổi nhanh chóng của công nghệ.
Công Cụ AI Cho Lập Trình Viên Hiện Đại
Hiện nay, có nhiều công cụ AI hỗ trợ lập trình viên trong quá trình phát triển phần mềm:
- Cursor: IDE tích hợp AI, được Eric Bethke đánh giá cao
- GitHub Copilot: Trợ lý lập trình dựa trên AI
- ChatGPT và các LLM khác: Hỗ trợ giải quyết vấn đề và tạo mã
- AI Code Review: Tự động kiểm tra và đánh giá chất lượng mã
Eric Bethke chia sẻ về quy trình làm việc của mình: “Tôi nói, ‘Này, ừm, làm ơn tạo cho tôi một sổ tay mini bằng markdown thật ngầu dành cho tôi trong tương lai, cho bạn trong tương lai.’ Tôi rất thích trò chuyện và thân thiện với các AI. Tôi xem chúng như bạn của mình.”
Nhu cầu về lập trình viên AI tại Việt Nam đang tăng cao, đặc biệt trong các lĩnh vực fintech và y tế. Để đáp ứng nhu cầu này, Việt Nam đang đặt mục tiêu đào tạo 100.000 chuyên gia IT về AI đến năm 2025.
Công Nghệ Phát Triển Phần Mềm Hiện Đại và Tác Động của AI
Công nghệ phát triển phần mềm đã trải qua nhiều thay đổi trong những năm gần đây, và AI đang đóng vai trò quan trọng trong quá trình chuyển đổi này. Từ các phương pháp phát triển truyền thống đến DevOps và hiện tại là AI-Ops, chúng ta đang chứng kiến một cuộc cách mạng trong cách phần mềm được tạo ra.
Tự Động Hóa Trong Phát Triển Phần Mềm: Cơ Hội và Thách Thức
Tự động hóa đang thay đổi cách chúng ta phát triển phần mềm. Các công cụ AI có thể tự động hóa nhiều khía cạnh của quy trình phát triển, từ viết mã đến kiểm thử và triển khai.
Mitch Ashley, Phó Chủ tịch kiêm trưởng bộ phận DevOps và phát triển ứng dụng tại Futurum Group, nhận xét: “Phần lớn đổi mới đang diễn ra ở giai đoạn đầu của quy trình, trong tay các lập trình viên và kiểm thử viên, chủ yếu là những người làm phát triển.”
Tuy nhiên, tự động hóa cũng mang đến những thách thức. Theo một nghiên cứu, 40% việc làm IT có thể bị tự động hóa đến năm 2030. Điều này đặt ra câu hỏi về tương lai của nghề lập trình viên và cách họ có thể thích nghi với sự thay đổi này.
Vai Trò Của Lập Trình Viên Trong Thời Đại AI: Thách Thức và Cơ Hội
Vai trò của lập trình viên trong thời đại AI đang chuyển từ người viết mã sang người điều phối và tối ưu hóa các giải pháp AI. Thay vì tập trung vào việc viết từng dòng code, họ đang dần trở thành những người định hướng và giám sát quá trình phát triển.
Eric Bethke chia sẻ về trải nghiệm của mình: “Vào thứ Bảy, tôi tình cờ có một ngày thứ Bảy tuyệt vời khi vợ tôi đi vắng và tôi có cả ngày cho riêng mình. Tôi dậy lúc 8 giờ sáng và bắt đầu lập trình với Cursor rồi tôi cứ tiếp tục lần theo một ý tưởng này, rồi lại đến ý tưởng khác, cứ thế tiếp tục. Tôi không thể dừng lại được. Mãi đến 10 giờ tối hôm đó, tức là sau 14 tiếng, tôi mới hoàn thành. Và tôi đã có lẽ là PR (Pull Request) lớn nhất mà tôi từng thực hiện trong đời.”
Hiểu rõ vai trò của lập trình viên trong thời đại AI là chìa khóa để thích nghi với sự thay đổi nhanh chóng của ngành công nghệ. Những người có thể kết hợp hiệu quả giữa kỹ năng lập trình truyền thống và khả năng làm việc với AI sẽ có lợi thế lớn trong thị trường lao động.
Cách AI Thay Đổi Phát Triển Phần Mềm Tại Việt Nam
Các công ty công nghệ lớn tại Việt Nam đang dẫn đầu trong việc ứng dụng AI trong phát triển phần mềm. FPT và Viettel đang phát triển các mô hình ngôn ngữ lớn (LLM) local, tập trung vào chatbot và trợ lý ảo, cũng như ứng dụng phân tích dự đoán và phát hiện bất thường.
Việt Nam đang đầu tư mạnh mẽ vào công nghệ AI với mục tiêu đào tạo 100.000 chuyên gia IT về AI đến năm 2025. Thị trường AI dự kiến đạt 1,52 tỷ USD vào năm 2030, cho thấy tiềm năng phát triển to lớn của lĩnh vực này.
Tuy nhiên, các doanh nghiệp Việt Nam cũng đang đối mặt với nhiều thách thức trong việc áp dụng AI:
Thách thức | Tỷ lệ ảnh hưởng |
---|---|
Độ chính xác của AI | 32% tổ chức gặp khó khăn |
An ninh mạng | 38% báo cáo là mối quan ngại chính |
Hệ thống dữ liệu phân mảnh | Ảnh hưởng đến khả năng triển khai |
Thiếu nhân sự có kỹ năng | Cần đầu tư đào tạo liên tục |
Keith Townsend chia sẻ về trải nghiệm học hỏi của mình: “Tôi có một chuỗi video tên là Zero to Builder. Mục đích không phải là dạy bạn cách lập trình. Mà là dạy bạn cách sử dụng AI để học lập trình.”
Kết Luận
Công nghệ AI đang định hình lại vai trò của lập trình viên trong ngành phát triển phần mềm. Từ những người viết mã truyền thống, họ đang dần trở thành những người điều phối và tối ưu hóa các giải pháp AI. Sự chuyển đổi này mang đến cả cơ hội và thách thức cho các lập trình viên.
Tại Việt Nam, với sự phát triển mạnh mẽ của ngành công nghệ và sự hỗ trợ từ chính phủ, lập trình viên có nhiều cơ hội để phát triển trong kỷ nguyên AI. Tuy nhiên, để thành công, họ cần liên tục cập nhật kiến thức và kỹ năng.
Công nghệ
Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất
Published
3 weeks agoon
18 May, 2025
OpenAI o3 nổi bật như một mô hình AI có khả năng lập luận mạnh mẽ nhất từ trước đến nay. Mô hình này thể hiện xuất sắc trong việc giải quyết các bài toán phức tạp và đã đạt thành tích ấn tượng với độ chính xác 91,6% trong Kỳ thi Toán học American Invitational Mathematics Examination (AIME) 2025.
Năng lực của o3 bao trùm nhiều lĩnh vực từ lập trình, toán học, khoa học cho đến nhận thức thị giác. So với phiên bản tiền nhiệm, mô hình này giảm 20% lỗi nghiêm trọng trong các tác vụ nền tảng, mặc dù tiêu tốn gấp 10 lần tài nguyên tính toán.
OpenAI o3 thể hiện bước tiến vượt bậc so với các mô hình tiền nhiệm. Kể từ ngày ra mắt 16 tháng 4 năm 2025, mô hình O-series mới nhất này áp dụng cơ chế lập luận mô phỏng, cho phép nó “suy ngẫm” trước khi đưa ra phản hồi. ChatGPT o3 tích hợp liền mạch nhiều công cụ, tạo nên trải nghiệm đa dạng. Mô hình này có khả năng tự quyết định thời điểm sử dụng tìm kiếm web và phân tích dữ liệu Python. Phiên bản o3 đầy đủ mang đến khả năng lập luận toàn diện nhất với với cửa sổ ngữ cảnh khổng lồ lên tới 200.000 token, trong khi các biến thể nhỏ gọn hơn sẽ được ra mắt trong tương lai.
Hãy cùng tìm hiểu những đặc điểm nổi bật của o3, từ khả năng lập luận trực quan đến vai trò của nó trong Khung Chuẩn bị mới “Preparedness Framework” của OpenAI. Mô hình này đánh dấu một bước tiến quan trọng khi là mô hình AI đầu tiên tích hợp các tính năng an toàn như cơ chế sắp xếp có chủ đích – một bước đột phá trong việc phát triển AI có trách nhiệm.
Video Tutorial: OpenAI o3 và o4-mini – Bước tiến mới trong AI
OpenAI o3 là gì và nó khác biệt như thế nào?
OpenAI o3 đánh dấu một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo, Ra mắt vào ngày 16 tháng 4 năm 2025, o3 là một phần trong dòng mô hình lập luận chuyên sâu của OpenAI. Trong khi các mô hình ngôn ngữ truyền thống chủ yếu tập trung vào việc tạo ra văn bản tổng quát, dòng o-series lại đi theo một hướng khác biệt. Mục tiêu của nó là nâng cao khả năng lập luận, tạo nên sự khác biệt rõ rệt so với các mô hình GPT quen thuộc của OpenAI.
Sự phát triển từ o1 đến o3
OpenAI lần đầu tiên tiết lộ o1 (tên mã “Strawberry”) vào tháng 9 năm 2024. Công ty đã mở rộng quyền truy cập o1 cho nhiều người hơn vào ngày 5 tháng 12 năm 2024. Chỉ hai tuần sau, họ đã xem trước o3 trong sự kiện ’12 Ngày Shipmas’ của họ. Tiến độ nhanh chóng này cho thấy sự cống hiến kiên định của họ đối với khả năng lập luận tốt hơn.
Những cải tiến rất ấn tượng. O3 mắc ít hơn 20% lỗi lớn so với o1 khi xử lý các nhiệm vụ thực tế khó khăn. Nó thực sự tỏa sáng trong lập trình, tư vấn kinh doanh và sáng tạo ý tưởng. Nhìn vào các thước đo cụ thể, o3 đạt độ chính xác 69,1% trong bài kiểm tra lập trình Verified SWE-bench, vượt trội hơn phiên bản tiền nhiệm. Mô hình này cũng đạt điểm ấn tượng 87,7% trong bài kiểm tra GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
Lý do OpenAI bỏ qua phiên bản o2
Bạn có thể nhận thấy không có mô hình OpenAI o2. Công ty đã nhảy thẳng từ o1 sang o3 vì vấn đề thương hiệu—”O2″ thuộc về một công ty viễn thông Anh do Telefonica UK điều hành. Sam Altman, CEO của OpenAI, nói rằng họ đã đưa ra lựa chọn này “vì sự tôn trọng” đối với Telefonica. Quyết định đặt tên này thực sự đã giúp OpenAI bằng cách làm cho mô hình có vẻ tiên tiến hơn.
Lập luận mô phỏng (Simulated reasoning) đối đầu với các mô hình ngôn ngữ lớn truyền thống
O3 hoạt động khác với các mô hình ngôn ngữ lớn truyền thống. GPT-4 và các mô hình tương tự xuất sắc trong các tác vụ ngôn ngữ chung và nhận dạng mẫu. Tuy nhiên, O3 sử dụng lập luận mô phỏng thay đổi toàn bộ cách tiếp cận xử lý thông tin của nó.
Lập luận mô phỏng này cho phép o3 dừng lại và suy nghĩ về quá trình tư duy nội tại của nó trước khi phản hồi—tương tự như cách con người suy nghĩ. Mô hình chia các vấn đề lớn thành các phần nhỏ hơn và khám phá các cách tiếp cận khác nhau. Nó kiểm tra lập luận của chính mình trước khi đưa ra câu trả lời. Cách tiếp cận này khác với các mô hình ngôn ngữ lớn thông thường chủ yếu sử dụng nhận dạng mẫu và dự đoán.
O3 suy nghĩ cẩn thận hơn về các thách thức phức tạp cần tư duy phân tích sâu sắc. Mô hình hoạt động tốt hơn trong toán học, lập trình và lập luận khoa học. Cách tiếp cận thận trọng này dẫn đến độ chính xác cao hơn trên các vấn đề khó, mặc dù mất nhiều thời gian hơn một chút để phản hồi.
Hiểu về o3-mini và o4-mini
Sự phát triển của các mô hình lập luận của OpenAI dẫn đến các phiên bản hiệu quả được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Những mô hình “mini” này cung cấp khả năng ấn tượng trong khi giữ yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn.
o3-mini là gì?
OpenAI đã cho ra mắt o3-mini vào ngày 31 tháng 1 năm 2025, đánh dấu sự xuất hiện của mô hình lập luận nhỏ gọn đầu tiên của họ. Mô hình này đáp ứng các tính năng được nhà phát triển yêu cầu nhiều nhất, bao gồm khả năng gọi hàm, Structured Outputs, và developer messages. Là một giải pháp thay thế tiết kiệm chi phí cho mô hình o3 đầy đủ, o3-mini thể hiện xuất sắc trong các lĩnh vực STEM—đặc biệt mạnh mẽ trong khoa học, toán học và lập trình—đồng thời duy trì độ trễ thấp hơn.
Các chuyên gia thử nghiệm nhận thấy o3-mini tạo ra câu trả lời chính xác và rõ ràng hơn so với o1-mini, với 56% thời gian họ ưu tiên chọn phản hồi từ o3-mini. Mô hình này giảm 39% lỗi nghiêm trọng (major errors) khi xử lý các câu hỏi nền tảng khó so với o1-mini. Thời gian phản hồi cũng được cải thiện đáng kể, nhanh hơn 24% so với o1-mini, trung bình chỉ mất 7,7 giây so với 10,16 giây của phiên bản tiền nhiệm.
Giải thích về o3-mini-low, medium và high
Ba biến thể của o3-mini tồn tại dựa trên nỗ lực lập luận: thấp, trung bình và cao. Các nhà phát triển có thể tối ưu hóa cho các trường hợp sử dụng cụ thể—chọn quá trình suy nghĩ sâu hơn cho các vấn đề phức tạp hoặc ưu tiên tốc độ khi độ trễ quan trọng.
O3-mini phù hợp với hiệu suất của o1 trong các đánh giá lập luận và trí thông minh đầy thách thức với nỗ lực lập luận trung bình, bao gồm AIME và GPQA. Các tùy chọn lập luận cao cung cấp khả năng phân tích cải thiện với chi phí thời gian phản hồi hơi lâu hơn. Vì vậy, tất cả người dùng ChatGPT trả phí đều nhận được quyền truy cập vào cả o3-mini (sử dụng lập luận trung bình theo mặc định) và o3-mini-high trong bộ chọn mô hình.
Phiên bản 1 (Dịch sát nghĩa):
O4-mini là gì và nó so sánh với o3-mini như thế nào
OpenAI đã phát hành o4-mini cùng với o3 vào ngày 16 tháng 4 năm 2025, như một mô hình nhỏ hơn được tối ưu hóa cho lập luận nhanh và tiết kiệm chi phí. Mô hình nhỏ gọn này thể hiện hiệu suất đáng chú ý cho kích thước của nó và xuất sắc trong các nhiệm vụ toán học, lập trình và thị giác.
O4-mini vượt trội hơn o3-mini trong cả các nhiệm vụ STEM và phi STEM trong các đánh giá của chuyên gia, bao gồm các lĩnh vực khoa học dữ liệu. Phản hồi của người dùng cho thấy kết quả hỗn hợp—o4-mini cung cấp thông lượng cao hơn và giới hạn sử dụng cao hơn so với o3, nhưng một số người dùng báo cáo vấn đề với việc tạo mã và tính nhất quán so với o3-mini-high.
O4-mini có các biến thể lập luận tiêu chuẩn và cao, với phiên bản cao mất nhiều thời gian hơn để tạo ra câu trả lời có khả năng đáng tin cậy hơn.
Các khả năng chính của o3
O3 của OpenAI nổi bật so với các mô hình AI truyền thống với những khả năng đột phá. Mô hình học thông qua học tăng cường quy mô lớn và thể hiện kỹ năng đáng chú ý trên nhiều lĩnh vực. Điều này khiến nó trở thành một công cụ mạnh mẽ để giải quyết các vấn đề phức tạp.
Lập luận nâng cao và chuỗi suy nghĩ
OpenAI đã huấn luyện mô hình o3 để “suy nghĩ” trước khi đưa ra câu trả lời thông qua cái mà họ gọi là “chuỗi tư duy riêng tư”. Mô hình này lập kế hoạch trước và lập luận thông qua các nhiệm vụ bằng cách thực hiện các bước suy luận trung gian để giải quyết vấn đề. O3 có khả năng phân tích các thách thức phức tạp và cân nhắc nhiều phương pháp tiếp cận khác nhau. Nó tự đánh giá quá trình lập luận của mình trước khi đưa ra câu trả lời cuối cùng. Mặc dù quá trình này đòi hỏi nhiều sức mạnh tính toán hơn và mất nhiều thời gian hơn để phản hồi, nhưng kết quả đầu ra lại chính xác hơn đáng kể.
Visual reasoning: suy nghĩ bằng hình ảnh
Một trong những bước đột phá lớn nhất của o3 là biết cách lập luận với hình ảnh trực tiếp trong chuỗi suy nghĩ của nó. Mô hình không chỉ nhìn thấy hình ảnh – nó suy nghĩ với chúng. O3 làm việc với hình ảnh do người dùng tải lên bằng cách sử dụng các công cụ khác nhau. Nó cắt, phóng to, xoay và áp dụng các kỹ thuật xử lý khác. Điều này giúp o3 phân tích hình ảnh mờ, đảo ngược hoặc chất lượng thấp. Tính năng này chứng tỏ giá trị trong việc giải thích bảng trắng (whiteboards), sơ đồ sách giáo khoa hoặc phác thảo vẽ tay (hand-drawn sketches).
Sử dụng công cụ: duyệt web, lập trình, phân tích tệp
O3 kết hợp lập luận tiên tiến với các khả năng công cụ chi tiết. Bao gồm duyệt web, lập trình Python, phân tích hình ảnh, xử lý tệp và các tính năng bộ nhớ. Các công cụ không chỉ có sẵn – o3 biết chính xác khi nào và cách sử dụng chúng trong quá trình lập luận. Ví dụ, xem cách nó tìm kiếm dữ liệu tiện ích trên web, viết mã Python để dự báo và tạo biểu đồ giải thích – tất cả trong một tương tác.
Tự kiểm tra sự thật và tính năng bộ nhớ
O3 sử dụng sự sắp xếp có cân nhắc để lập luận về các chính sách an toàn khi nó phản hồi các lời nhắc có khả năng không an toàn. Tự kiểm tra sự thật tích hợp giúp phản hồi chính xác hơn. Mô hình cũng nhớ các chi tiết hữu ích giữa các cuộc trò chuyện. Điều này dẫn đến các phản hồi được tùy chỉnh và phù hợp.
Performance trong toán học, lập trình và khoa học
O3 cho thấy kết quả đặc biệt xuất sắc trong các lĩnh vực kỹ thuật:
- Toán học: Độ chính xác 91,6% trên AIME 2024 (so với 74,3% của o1)
- Lập trình: Độ chính xác 69,1% trên SWE-bench Verified (so với 48,9% của o1)
- Khoa học: Độ chính xác 83,3% trên thước đo GPQA Diamond
Safety, access, and pricing
OpenAI đang dẫn đầu trong việc triển khai an toàn và có trách nhiệm các mô hình lập luận của mình. Tài liệu an toàn mới nhất của họ cho thấy cách o3 và o4-mini áp dụng nhiều lớp bảo vệ, vừa ngăn chặn việc sử dụng sai mục đích, vừa hỗ trợ các ứng dụng có ích.
Deliberative alignment: Phương pháp an toàn mới
OpenAI đã phát triển phương pháp sắp xếp có chủ đích – một kỹ thuật an toàn đột phá giúp các mô hình lập luận hiểu trực tiếp các thông số kỹ thuật an toàn do con người viết. Khác với các phương pháp cũ, nơi các mô hình học hành vi mong muốn từ các ví dụ được gắn nhãn, o3 giờ đây có thể suy ngẫm về các thông số này trước khi đưa ra câu trả lời.
Cách tiếp cận này giúp o3 vượt trội hơn GPT-4o trong việc đáp ứng các tiêu chuẩn an toàn nội bộ và bên ngoài. Nó giảm thiểu các kết quả có hại và tránh việc từ chối không cần thiết đối với nội dung an toàn. Đây là một bước tiến vượt bậc so với các phương pháp an toàn truyền thống chỉ dựa vào đào tạo từ các ví dụ.
Preparedness Framework v2
Khung Chuẩn bị phiên bản 2 của OpenAI giờ đây xem xét năm tiêu chí rủi ro: tính khả thi, khả năng đo lường, mức độ nghiêm trọng, tính mới hoàn toàn và liệu rủi ro xảy ra tức thì hay không thể khắc phục.
Khung này đặt ra hai ngưỡng rõ ràng – Khả năng cao và Khả năng quan trọng – kèm theo các cam kết hoạt động cụ thể. O3 và o4-mini đã trải qua đánh giá trong ba lĩnh vực: mối đe dọa sinh học/hóa học, an ninh mạng và khả năng tự cải thiện của AI. Cả hai mô hình đều duy trì dưới ngưỡng ‘Cao’ của khung trong mọi hạng mục.
Cách truy cập o3 và o4-mini thông qua ChatGPT
Người dùng ChatGPT Plus, Pro và Team có thể truy cập o3, o4-mini và o4-mini-high trực tiếp từ bộ chọn mô hình. Người dùng Enterprise và Edu được truy cập một tuần sau khi phát hành ban đầu. Mỗi cấp độ đăng ký có giới hạn khác nhau:
- Plus, Team, Enterprise & Edu: 100 tin nhắn hàng tuần với o3, 300 tin nhắn hàng ngày với o4-mini và 100 tin nhắn hàng ngày với o4-mini-high
- Pro: Truy cập gần như không giới hạn (tùy thuộc vào các biện pháp bảo vệ tự động)
- Miễn phí: Truy cập giới hạn vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo
Giá API và giới hạn sử dụng
Các nhà phát triển có thể sử dụng o3 qua API với giá 254.148,34 VND cho mỗi triệu token đầu vào và 1.016.593,35 VND cho mỗi triệu token đầu ra. O4-mini có giá thấp hơn ở mức 27.956,32 VND cho mỗi triệu token đầu vào và 111.825,27 VND cho mỗi triệu token đầu ra. Người dùng cần xác minh tổ chức ở cấp độ 1-3 để truy cập o3, trong khi tất cả người dùng đã xác minh có thể sử dụng o4-mini. Cả hai mô hình đều hoạt động với cửa sổ ngữ cảnh 200k token và có thể xuất ra tối đa 100k token, điều này cung cấp nhiều không gian cho các tác vụ lập luận phức tạp.

Kết luận
OpenAI o3 đánh dấu một bước ngoặt quan trọng trong lịch sử phát triển AI, khi nó vượt xa khỏi việc đơn thuần so khớp mẫu để hướng tới khả năng lập luận đích thực. Những mô hình này hứa hẹn sẽ phát triển khả năng giải quyết vấn đề ngày càng tinh vi, đi kèm với các biện pháp an toàn được cải thiện. Dòng o chứng minh rằng tương lai của AI không nằm ở việc tạo ra các phản hồi đơn thuần, mà là ở khả năng lập luận thấu đáo trước những vấn đề phức tạp
Câu hỏi thường gặp
C1. Các tính năng chính của mô hình o3 của OpenAI là gì? OpenAI o3 là một mô hình AI tiên tiến sử dụng lập luận mô phỏng để xuất sắc trong các nhiệm vụ giải quyết vấn đề phức tạp. Nó có thể tạm dừng và suy ngẫm trước khi phản hồi, có khả năng lập luận trực quan và tích hợp các công cụ khác nhau như tìm kiếm web và lập trình Python. Mô hình cũng có các biện pháp an toàn nâng cao và cửa sổ ngữ cảnh khổng lồ 200.000 token.
C2. O3 so sánh như thế nào với các mô hình AI trước đây về mặt hiệu suất? O3 thể hiện những cải tiến đáng kể so với các phiên bản tiền nhiệm, mắc ít hơn 20% lỗi lớn trong các nhiệm vụ thực tế khó khăn. Nó đạt độ chính xác 91,6% trên AIME 2025, 69,1% độ chính xác trên điểm chuẩn lập trình SWE-bench Verified, và 87,7% trên điểm chuẩn GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
C3. O3-mini và o4-mini là gì, và chúng khác với mô hình o3 đầy đủ như thế nào? O3-mini và o4-mini là các phiên bản tinh gọn của mô hình o3, được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Chúng cung cấp khả năng ấn tượng với yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn. O3-mini có các biến thể nỗ lực lập luận thấp, trung bình và cao, trong khi o4-mini được tối ưu hóa cho lập luận nhanh, tiết kiệm chi phí.
C4. Người dùng có thể truy cập các mô hình o3 và o4-mini như thế nào? Người dùng ChatGPT Plus, Pro, Team và Enterprise có thể truy cập o3, o4-mini và o4-mini-high thông qua bộ chọn mô hình. Giới hạn sử dụng thay đổi theo cấp độ đăng ký. Đối với các nhà phát triển, cả hai mô hình đều có sẵn thông qua API với cấu trúc giá khác nhau. Người dùng miễn phí có quyền truy cập hạn chế vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo.
C5. Các biện pháp an toàn nào được triển khai trong mô hình o3? O3 kết hợp một phương pháp an toàn mới gọi là sắp xếp có cân nhắc, dạy mô hình lập luận rõ ràng về các thông số kỹ thuật an toàn. Nó cũng có khả năng tự kiểm tra sự thật và được đánh giá theo Khung Chuẩn bị v2 cập nhật của OpenAI, đánh giá rủi ro trên các tiêu chí khác nhau để đảm bảo triển khai AI có trách nhiệm.
Dieter R.

Chào bạn đến với khóa học AI tạo sinh 5 ngày độc đáo. Khóa học được tổ chức bởi Google trên nền tảng Kaggle. Đây là một cơ hội hiếm có để học hỏi trực tiếp từ các chuyên gia hàng đầu của Google. Đặc biệt là từ đội ngũ Google DeepMind.
Nội dung chính
Khóa Học AI Tạo Sinh 5 Ngày: Livestream Ngày 1
Paige Bailey sẽ thảo luận về các bài tập với các tác giả khóa học. Bên cạnh đó có những khách mời đặc biệt khác từ Google. Khách mời hôm nay bao gồm Warren Barkley, Logan Kilpatrick, Kieran Milan, Anant Nawalgaria, Irina Sigler và Mat Velloso.
Video có phụ đề tiếng Việt.
Video gốc (không có phụ đề tiếng Việt): https://www.youtube.com/live/WpIfAeCIFc0
Thông tin thêm
Đào Tạo Toàn Diện cho Hơn 140.000 Nhà Phát Triển
Khóa học Generative AI 5 ngày của Google không chỉ là một chuỗi bài giảng đơn thuần. Nó còn là một hành trình học tập toàn diện. Khóa học được thiết kế cẩn thận. Nhằm cung cấp kiến thức chuyên sâu về AI tạo sinh. Với số lượng hơn 140.000 nhà phát triển đã đăng ký tham gia. Đây là một trong những sự kiện quan trọng nhất từng được tổ chức cho các nhà phát triển.
Khóa học đã được thiết kế tinh tế. Kết hợp giữa lý thuyết, thực hành và tương tác cộng đồng. Nhằm giúp những người tham gia có được hiểu biết vững chắc về Gen AI. Từ cơ bản đến nâng cao.
Mỗi ngày trong khóa học đều tập trung vào một chủ đề cụ thể. Nhằm mang đến cho người học góc nhìn toàn diện về công nghệ AI tạo sinh.
- Ngày 1 khám phá về Các Mô hình Nền tảng và Kỹ thuật Prompt;
- Ngày 2 đi sâu vào Embeddings và Vector Stores/Databases;
- Ngày 3 tập trung vào Generative AI Agents;
- Ngày 4 nghiên cứu về Domain-Specific LLMs;
- và cuối cùng, Ngày 5 giới thiệu về MLOps cho AI tạo sinh.
Cách tiếp cận đa dạng này giúp người học có thể nắm bắt được cả lý thuyết nền tảng. Lẫn các ứng dụng thực tế của AI tạo sinh.
Trải Nghiệm Học Tập Toàn Diện Với Podcast AI, Phòng Thí Nghiệm Mã Và Tương Tác Trực Tiếp Cùng Chuyên Gia
Điểm đặc biệt của khóa học là các bài tập được thiết kế đa dạng, bao gồm podcast được tạo bởi AI (sử dụng NotebookLM), các bài báo trắng (white papers) thông tin do các chuyên gia Google viết, và các phòng thí nghiệm mã (code labs) để người học có thể trải nghiệm thực tế với Gemini API và các công cụ khác. Người học cũng có cơ hội tham gia vào các buổi phát trực tiếp với các khách mời chuyên gia từ Google, nơi họ có thể đặt câu hỏi và tương tác với những người tạo ra khóa học. Đây là cơ hội quý báu để đi sâu hơn vào các chủ đề chuyên đề và hiểu rõ hơn về ứng dụng của AI tạo sinh.
Ngoài ra, khóa học còn cung cấp một kênh Discord được hỗ trợ tích cực bởi các nhân viên Google, tạo ra một không gian cộng đồng sôi động để trao đổi kiến thức và chia sẻ trải nghiệm. Các phòng thí nghiệm mã trên Kaggle cho phép người tham gia thử nghiệm với các kỹ thuật và công cụ AI tạo sinh khác nhau, bao gồm Gemini API, Embeddings, công cụ mã nguồn mở như Langraph cũng như Vertex AI. Đối với những ai đã bỏ lỡ khóa học trực tiếp, một số nội dung phổ biến nhất đã được điều chỉnh thành định dạng tự học và có sẵn dưới dạng Kaggle Learn Guide, giúp mọi người vẫn có thể tiếp cận với kiến thức quý giá này
Danh sách tham khảo
[1] 5-Day Gen AI Intensive Course with Google Learn Guide – Kaggle
[2] Google and Kaggle launch five-day intensive Generative AI course
[3] Kaggle’s 5-Day Gen AI Intensive Course
Trending
-
Video4 months ago
Video Truyền Cảm Hứng Thành Công Mạnh Mẽ Nhất
-
Khóa học9 months ago
41 Tài Nguyên Về “Reinforcement Learning” (Học Tăng Cường) Tốt Nhất
-
Khóa học7 months ago
Đây là 38 Khóa học Miễn phí về Khoa học Dữ liệu trên Coursera mà bạn nên biết vào năm 2024.
-
Công nghệ9 months ago
44 công ty khởi nghiệp AI triển vọng nhất năm 2024
-
Công nghệ6 months ago
Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1
-
Công nghệ9 months ago
Robo Advisor là gì?
-
Công nghệ6 months ago
Câu chuyện tình yêu ❤️Ch3
-
Giải trí5 months ago
Câu chuyện tình yêu ❤️Ch4