Công nghệ
Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 2
Published
6 months agoon

Phần 1: https://kenkai.vn/cong-nghe/giai-thich-cac-mo-hinh-tri-tue-nhan-tao-tao-sinh-%f0%9f%a4%96phan-1/
Variational Autoencoders (VAEs)
Bộ mã hóa tự động biến phân (Variational Autoencoders – VAEs)
Các mô hình dựa trên VAE (Variational Autoencoders) được giới thiệu lần đầu tiên vào năm 2013 bởi Diederik P. Kingma và Max Welling, và từ đó đã trở thành một loại mô hình sinh tạo phổ biến.

A variational autoencoder is an unsupervised neural network consisting of two parts: an encoder and a decoder. During the training stage, an encoder learns to compress input data into a simplified representation (so-called latent space, which is lower-dimensional than the original data) that captures only essential features of the initial input. Each data point isn’t represented by a single value but by a probabilistic distribution of values. This built-in randomness is what gives the autoencoder its “variational” characteristic.
Một bộ mã hóa tự động biến phân (variational autoencoder) là một mạng nơ-ron không giám sát bao gồm hai phần: một bộ mã hóa và một bộ giải mã. Trong giai đoạn huấn luyện, bộ mã hóa học cách nén dữ liệu đầu vào thành một biểu diễn đơn giản hóa (còn gọi là không gian tiềm ẩn, có chiều thấp hơn dữ liệu gốc) chỉ bao gồm các đặc trưng cốt lõi của đầu vào ban đầu. Mỗi điểm dữ liệu không được biểu diễn bằng một giá trị đơn lẻ mà bằng một phân phối xác suất các giá trị. Tính ngẫu nhiên được xây dựng sẵn này là điều tạo nên đặc trưng “biến phân” của bộ mã hóa tự động.
Think of latent representations as the DNA of an organism. DNA holds the core instructions needed to build and maintain a living being. Similarly, latent representations contain the fundamental elements of data, allowing the model to regenerate the original information from this encoded essence. But if you change the DNA molecule just a little bit, you get a completely different organism. For example, did you know that human and chimpanzee DNA is 98-99 percent identical?
Hãy nghĩ về các biểu diễn tiềm ẩn như là DNA của một sinh vật. DNA chứa những hướng dẫn cốt lõi cần thiết để xây dựng và duy trì một sinh vật sống. Tương tự, các biểu diễn tiềm ẩn chứa những yếu tố cơ bản của dữ liệu, cho phép mô hình tái tạo lại thông tin gốc từ bản chất được mã hóa này. Nhưng nếu bạn thay đổi phân tử DNA chỉ một chút, bạn sẽ nhận được một sinh vật hoàn toàn khác. Ví dụ, bạn có biết rằng DNA của con người và tinh tinh giống nhau 98-99 phần trăm?
A decoder takes latent representation as input and reverses the process. But it doesn’t reconstruct the exact input; instead, it creates something new resembling typical examples from the dataset.
Một bộ giải mã lấy biểu diễn tiềm ẩn làm đầu vào và đảo ngược quá trình. Nhưng nó không tái tạo chính xác đầu vào; thay vào đó, nó tạo ra một cái gì đó mới giống với các ví dụ điển hình từ tập dữ liệu.
VAEs excel in tasks like image and sound generation, as well as image denoising.
VAE rất xuất sắc trong các tác vụ như tạo ra hình ảnh và âm thanh, cũng như khử nhiễu hình ảnh.
Types of generative AI applications with examples and use cases
Các loại ứng dụng trí tuệ nhân tạo sinh tạo với ví dụ và trường hợp sử dụng
Trí tuệ nhân tạo sinh tạo (Generative AI) có rất nhiều ứng dụng thực tiễn trong các lĩnh vực khác nhau như thị giác máy tính, nơi nó có thể tăng cường kỹ thuật tăng cường dữ liệu. Tiềm năng của việc sử dụng mô hình sinh tạo thực sự là vô hạn. Bên dưới đây bạn sẽ tìm thấy một số trường hợp sử dụng nổi bật đã mang lại kết quả đáng kinh ngạc. Hoặc xem video của chúng tôi về chủ đề này.
Image generation
Tạo hình ảnh
Trường hợp sử dụng nổi bật nhất của trí tuệ nhân tạo sinh tạo là tạo ra các hình ảnh giả mạo trông giống như thật. Ví dụ, vào năm 2017, Tero Karras – một Nhà khoa học nghiên cứu nổi tiếng tại NVIDIA Research – đã công bố “Progressive Growing of GANs for Improved Quality, Stability, and Variation.”

Trong bài báo này, ông đã minh họa việc tạo ra các bức ảnh chân thực về khuôn mặt con người. Mô hình này được huấn luyện trên dữ liệu đầu vào chứa các bức ảnh thật của các ngôi sao nổi tiếng, sau đó nó tạo ra các bức ảnh mới chân thực về khuôn mặt con người có một số đặc điểm của các ngôi sao nổi tiếng, khiến chúng có vẻ quen thuộc. Chẳng hạn, cô gái trong ảnh ở góc trên bên phải trông hơi giống Beyoncé, nhưng đồng thời cũng rõ ràng là không phải là nữ ca sĩ này.
Image-to-image translation
Chuyển đổi từ hình ảnh sang hình ảnh
Như tên gọi đề xuất, trí tuệ nhân tạo sinh tạo biến đổi một loại hình ảnh thành một loại khác. Có một loạt các biến thể chuyển đổi từ hình ảnh sang hình ảnh.
Style transfer. Nhiệm vụ này liên quan đến việc trích xuất phong cách từ một bức tranh nổi tiếng và áp dụng nó vào một hình ảnh khác. Ví dụ, chúng ta có thể lấy một bức ảnh thực sự chúng tôi chụp ở Cologne, Đức, và chuyển đổi nó thành phong cách của bức tranh của Van Gogh.

Sketches-to-realistic images. Chuyển đổi từ phác thảo sang hình ảnh thực tế. Ở đây, người dùng bắt đầu với một phác thảo thưa thớt và danh mục đối tượng mong muốn, và mạng lưới sau đó sẽ đề xuất sự hoàn thành hợp lý của nó và hiển thị một hình ảnh tổng hợp tương ứng.

Một trong những bài báo thảo luận về công nghệ này là “DeepFaceDrawing: Deep Generation of Face Images from Sketches“. Nó được công bố vào năm 2020 bởi một nhóm các nhà nghiên cứu đến từ Trung Quốc. Nó mô tả cách các phác thảo chân dung đơn giản có thể được chuyển đổi thành những bức ảnh chân thực về con người.
MRI thành các bản quét CT (MRI into CT scans). Trong lĩnh vực chăm sóc sức khỏe (healthcare), một ví dụ có thể là chuyển đổi một hình ảnh MRI thành một bản quét CT (MRI image into a CT scan) vì một số liệu pháp đòi hỏi hình ảnh từ cả hai phương thức chụp. Tuy nhiên, CT, đặc biệt là khi cần độ phân giải cao (high resolution), đòi hỏi một liều lượng bức xạ khá cao cho bệnh nhân. Do đó, bạn chỉ có thể thực hiện MRI và tổng hợp một hình ảnh CT từ nó (do an MRI and synthesize a CT image from it).
Text-to-image translation
Chuyển đổi từ văn bản sang hình ảnh
Phương pháp này ngụ ý sản xuất các hình ảnh khác nhau (thực tế, giống như tranh vẽ, v.v.) từ các mô tả bằng văn bản về các đối tượng đơn giản.

Bức ảnh ở trên là một ví dụ về chuyển đổi từ văn bản sang hình ảnh. Các bộ tạo hình ảnh AI phổ biến nhất là Midjourney, Dall-e của OpenAI và Stable Diffusion đã đề cập trước đó.
Để tạo ra bức ảnh mà bạn thấy bên dưới, chúng tôi đã cung cấp cho Stable Diffusion các từ khóa sau: một giấc mơ về thời gian đã qua, tranh dầu, đỏ xanh trắng, canvas, màu nước, cá chép, và động vật. Kết quả không hoàn hảo, nhưng khá ấn tượng, xét cho đến việc chúng tôi không có quyền truy cập vào phiên bản beta ban đầu với một tập hợp tính năng rộng hơn mà chỉ sử dụng một công cụ của bên thứ ba.

Kết quả của tất cả các chương trình này khá tương tự nhau. Tuy nhiên, một số người dùng lưu ý rằng, trung bình, Midjourney vẽ một chút biểu cảm hơn, và Stable Diffusion tuân theo yêu cầu một cách rõ ràng hơn ở các cài đặt mặc định.
Text-to-speech
Chuyển đổi từ văn bản sang giọng nói
Các nhà nghiên cứu cũng đã sử dụng GAN để tạo ra giọng nói tổng hợp từ đầu vào văn bản. Các công nghệ học sâu tiên tiến như Amazon Polly và DeepMind tổng hợp giọng nói người tự nhiên. Các mô hình như vậy hoạt động trực tiếp trên các chuỗi đầu vào ký tự hoặc âm tiết và tạo ra đầu ra âm thanh nói thô.
Audio generation
Tạo ra âm thanh
Trí tuệ nhân tạo sinh tạo cũng có thể xử lý dữ liệu âm thanh. Để làm điều này, trước tiên bạn cần chuyển đổi tín hiệu âm thanh thành các biểu diễn 2 chiều giống như hình ảnh được gọi là phổ âm. Điều này cho phép chúng ta sử dụng các thuật toán được thiết kế cụ thể để làm việc với hình ảnh như CNN cho nhiệm vụ liên quan đến âm thanh của chúng ta.

Sử dụng phương pháp này, bạn có thể biến đổi giọng nói của mọi người hoặc thay đổi phong cách/thể loại của một đoạn nhạc. Ví dụ, bạn có thể “chuyển đổi” một đoạn nhạc từ phong cách cổ điển sang phong cách jazz.
Vào năm 2022, Apple đã mua lại startup AI Music của Anh để tăng cường khả năng âm thanh của Apple. Công nghệ được phát triển bởi startup này cho phép tạo ra các bản nhạc nền bằng cách sử dụng các bản nhạc công cộng miễn phí được xử lý bởi các thuật toán AI của hệ thống. Nhiệm vụ chính là thực hiện phân tích âm thanh và tạo ra các bản nhạc nền “động” có thể thay đổi tùy thuộc vào cách người dùng tương tác với chúng. Điều đó có nghĩa là nhạc có thể thay đổi theo không khí của cảnh trong trò chơi hoặc tùy thuộc vào cường độ của bài tập tại phòng gym của người dùng.
Video generation
Tạo video
Đây là một tập hợp các hình ảnh động. Do đó, logic, các video cũng có thể được tạo ra và chuyển đổi theo cách tương tự như hình ảnh. Trong khi năm 2023 được đánh dấu bởi những bước đột phá trong LLM và sự bùng nổ của các công nghệ tạo hình ảnh, năm 2024 đã chứng kiến những tiến bộ đáng kể trong lĩnh vực tạo video. Vào đầu năm 2024, OpenAI đã giới thiệu một mô hình chuyển đổi từ văn bản sang video thực sự ấn tượng có tên là Sora.
Sora là một mô hình dựa trên khuếch tán (diffusion) tạo ra video từ nhiễu tĩnh. Nó có thể tạo ra các cảnh phức tạp với nhiều nhân vật, các chuyển động cụ thể và các chi tiết chính xác về chủ thể và nền. Tương tự như các mô hình GPT, Sora cũng sử dụng kiến trúc transformer để làm việc với các lời nhắc văn bản. Ngoài việc tạo video từ văn bản, Sora còn có thể hoạt hình các hình ảnh tĩnh hiện có.
Image and video resolution enhancement
Nâng cao độ phân giải hình ảnh và video
Nếu chúng ta có một hình ảnh chất lượng kém, chúng ta có thể sử dụng một mô hình GAN để tạo ra một phiên bản tốt hơn bằng cách xác định từng điểm ảnh riêng lẻ và sau đó tạo ra một độ phân giải cao hơn của đó.

Chúng ta có thể nâng cấp hình ảnh từ các bộ phim cũ bằng cách phóng to chúng lên 4K và hơn thế nữa, tạo ra nhiều khung hình mỗi giây (ví dụ: 60 fps thay vì 23), và thêm màu sắc vào các bộ phim đen trắng.
Synthetic data generation
Tạo dữ liệu tổng hợp
Trong khi chúng ta sống trong một thế giới tràn ngập dữ liệu được tạo ra liên tục với số lượng lớn, vấn đề thu thập đủ dữ liệu để huấn luyện các mô hình học máy vẫn còn tồn tại. Thu thập đủ mẫu chất lượng cao để huấn luyện là một nhiệm vụ tốn thời gian, tốn kém và thường là không thể thực hiện. Giải pháp cho vấn đề này có thể là dữ liệu tổng hợp, phụ thuộc vào trí tuệ nhân tạo sinh tạo.
Dựa trên các công nghệ mới của NVIDIA trong lĩnh vực trí tuệ nhân tạo sinh tạo, công ty đã phát triển một khung làm việc học sâu mới gọi là fVDB. Khung này có thể tạo ra các mô hình 3D quy mô lớn và độ phân giải cao của các môi trường đô thị thực tế. Điều này cho phép tạo ra các biểu diễn ảo sẵn sàng cho trí tuệ nhân tạo, có thể được sử dụng để huấn luyện các hệ thống tự động, mô hình hóa khí hậu và lập kế hoạch đô thị.
fVDB được xây dựng dựa trên công việc hiện có của NVIDIA với thư viện OpenVDB, bổ sung thêm các toán tử dựa trên trí tuệ nhân tạo cho các tác vụ như tái tạo 3D, mô hình hóa sinh tạo và kết xuất theo thời gian thực. Điều này cho phép tạo ra các bản sao kỹ thuật số chi tiết và chính xác về không gian của thế giới vật lý.
Dữ liệu tổng hợp như vậy có thể giúp phát triển xe tự lái vì chúng có thể sử dụng các tập dữ liệu huấn luyện thế giới ảo được tạo ra để phát hiện người đi bộ, ví dụ.

The dark side of generative AI: Is it that dark?
Mặt tối của trí tuệ nhân tạo sinh tạo: Nó có thực sự tối tăm không?
Dù là công nghệ nào, nó đều có thể được sử dụng vì cả mục đích tốt và xấu. Tất nhiên, trí tuệ nhân tạo sinh tạo cũng không phải là ngoại lệ. Hiện tại, một vài thách thức tồn tại.
Pseudo-images and deep fakes. Ảnh giả và deepfake. Ban đầu được tạo ra cho mục đích giải trí, công nghệ deepfake đã nhận được một danh tiếng xấu. Có sẵn công khai cho tất cả người dùng thông qua phần mềm như FakeApp, Reface và DeepFaceLab, deepfake đã được sử dụng bởi mọi người không chỉ để vui đùa mà còn cho các hoạt động độc hại.
Ví dụ, vào tháng 3 năm 2022, một video deepfake của Tổng thống Ukraine Volodymyr Zelensky yêu cầu người dân đầu hàng đã được phát sóng trên các kênh truyền thông Ukraine bị hack. Mặc dù có thể nhìn thấy rõ ràng rằng video là giả, nó vẫn lọt ra mạng xã hội và gây ra nhiều sự thao túng.
The risk of losing control. Rủi ro mất kiểm soát. Khi nói điều này, chúng ta không có ý nói rằng ngày mai, máy móc sẽ nổi dậy chống lại nhân loại và phá hủy thế giới. Hãy thành thật, chính chúng ta cũng khá giỏi trong việc này. Tuy nhiên, do trí tuệ nhân tạo sinh tạo có thể tự học, hành vi của nó rất khó kiểm soát. Các kết quả được cung cấp thường có thể rất khác với những gì bạn mong đợi.
Nhưng như chúng ta biết, công nghệ sẽ không thể phát triển và lớn mạnh mà không có những thách thức. Hơn nữa, trí tuệ nhân tạo có trách nhiệm (responsible AI) làm cho việc tránh hoặc giảm thiểu hoàn toàn những nhược điểm của các đổi mới như trí tuệ nhân tạo sinh tạo trở nên có thể.
Nhưng đừng lo: Bài viết bạn vừa đọc không được tạo ra bởi trí tuệ nhân tạo.
Hay là nó được viết bởi AI?
Phần 1: https://kenkai.vn/cong-nghe/giai-thich-cac-mo-hinh-tri-tue-nhan-tao-tao-sinh-%f0%9f%a4%96phan-1/
Tác giả: altexsoft.com,
Link bài gốc: Generative AI Models Explained | Bài được cập nhật lần cuối vào Ngày 05 tháng 09 năm 2024 | www.altexsoft.com
Dịch giả: Dieter R – KenkAI Nhiều thứ hay
(*) Bản quyền bản dịch thuộc về Dieter R. Tuy nhiên, nội dung bài viết không phải do tôi tạo ra. Mọi khiếu nại về bản quyền (nếu có) xin vui lòng gửi email đến địa chỉ purchasevn@getkenka.com. Xin chân thành cảm ơn.
(**) Follow KenkAI Nhiều thứ hay để đọc các bài dịch khác và cập nhật thông tin bổ ích hằng ngày.

Công nghệ
Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất
Published
3 weeks agoon
18 May, 2025
OpenAI o3 nổi bật như một mô hình AI có khả năng lập luận mạnh mẽ nhất từ trước đến nay. Mô hình này thể hiện xuất sắc trong việc giải quyết các bài toán phức tạp và đã đạt thành tích ấn tượng với độ chính xác 91,6% trong Kỳ thi Toán học American Invitational Mathematics Examination (AIME) 2025.
Năng lực của o3 bao trùm nhiều lĩnh vực từ lập trình, toán học, khoa học cho đến nhận thức thị giác. So với phiên bản tiền nhiệm, mô hình này giảm 20% lỗi nghiêm trọng trong các tác vụ nền tảng, mặc dù tiêu tốn gấp 10 lần tài nguyên tính toán.
OpenAI o3 thể hiện bước tiến vượt bậc so với các mô hình tiền nhiệm. Kể từ ngày ra mắt 16 tháng 4 năm 2025, mô hình O-series mới nhất này áp dụng cơ chế lập luận mô phỏng, cho phép nó “suy ngẫm” trước khi đưa ra phản hồi. ChatGPT o3 tích hợp liền mạch nhiều công cụ, tạo nên trải nghiệm đa dạng. Mô hình này có khả năng tự quyết định thời điểm sử dụng tìm kiếm web và phân tích dữ liệu Python. Phiên bản o3 đầy đủ mang đến khả năng lập luận toàn diện nhất với với cửa sổ ngữ cảnh khổng lồ lên tới 200.000 token, trong khi các biến thể nhỏ gọn hơn sẽ được ra mắt trong tương lai.
Hãy cùng tìm hiểu những đặc điểm nổi bật của o3, từ khả năng lập luận trực quan đến vai trò của nó trong Khung Chuẩn bị mới “Preparedness Framework” của OpenAI. Mô hình này đánh dấu một bước tiến quan trọng khi là mô hình AI đầu tiên tích hợp các tính năng an toàn như cơ chế sắp xếp có chủ đích – một bước đột phá trong việc phát triển AI có trách nhiệm.
Video Tutorial: OpenAI o3 và o4-mini – Bước tiến mới trong AI
OpenAI o3 là gì và nó khác biệt như thế nào?
OpenAI o3 đánh dấu một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo, Ra mắt vào ngày 16 tháng 4 năm 2025, o3 là một phần trong dòng mô hình lập luận chuyên sâu của OpenAI. Trong khi các mô hình ngôn ngữ truyền thống chủ yếu tập trung vào việc tạo ra văn bản tổng quát, dòng o-series lại đi theo một hướng khác biệt. Mục tiêu của nó là nâng cao khả năng lập luận, tạo nên sự khác biệt rõ rệt so với các mô hình GPT quen thuộc của OpenAI.
Sự phát triển từ o1 đến o3
OpenAI lần đầu tiên tiết lộ o1 (tên mã “Strawberry”) vào tháng 9 năm 2024. Công ty đã mở rộng quyền truy cập o1 cho nhiều người hơn vào ngày 5 tháng 12 năm 2024. Chỉ hai tuần sau, họ đã xem trước o3 trong sự kiện ’12 Ngày Shipmas’ của họ. Tiến độ nhanh chóng này cho thấy sự cống hiến kiên định của họ đối với khả năng lập luận tốt hơn.
Những cải tiến rất ấn tượng. O3 mắc ít hơn 20% lỗi lớn so với o1 khi xử lý các nhiệm vụ thực tế khó khăn. Nó thực sự tỏa sáng trong lập trình, tư vấn kinh doanh và sáng tạo ý tưởng. Nhìn vào các thước đo cụ thể, o3 đạt độ chính xác 69,1% trong bài kiểm tra lập trình Verified SWE-bench, vượt trội hơn phiên bản tiền nhiệm. Mô hình này cũng đạt điểm ấn tượng 87,7% trong bài kiểm tra GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
Lý do OpenAI bỏ qua phiên bản o2
Bạn có thể nhận thấy không có mô hình OpenAI o2. Công ty đã nhảy thẳng từ o1 sang o3 vì vấn đề thương hiệu—”O2″ thuộc về một công ty viễn thông Anh do Telefonica UK điều hành. Sam Altman, CEO của OpenAI, nói rằng họ đã đưa ra lựa chọn này “vì sự tôn trọng” đối với Telefonica. Quyết định đặt tên này thực sự đã giúp OpenAI bằng cách làm cho mô hình có vẻ tiên tiến hơn.
Lập luận mô phỏng (Simulated reasoning) đối đầu với các mô hình ngôn ngữ lớn truyền thống
O3 hoạt động khác với các mô hình ngôn ngữ lớn truyền thống. GPT-4 và các mô hình tương tự xuất sắc trong các tác vụ ngôn ngữ chung và nhận dạng mẫu. Tuy nhiên, O3 sử dụng lập luận mô phỏng thay đổi toàn bộ cách tiếp cận xử lý thông tin của nó.
Lập luận mô phỏng này cho phép o3 dừng lại và suy nghĩ về quá trình tư duy nội tại của nó trước khi phản hồi—tương tự như cách con người suy nghĩ. Mô hình chia các vấn đề lớn thành các phần nhỏ hơn và khám phá các cách tiếp cận khác nhau. Nó kiểm tra lập luận của chính mình trước khi đưa ra câu trả lời. Cách tiếp cận này khác với các mô hình ngôn ngữ lớn thông thường chủ yếu sử dụng nhận dạng mẫu và dự đoán.
O3 suy nghĩ cẩn thận hơn về các thách thức phức tạp cần tư duy phân tích sâu sắc. Mô hình hoạt động tốt hơn trong toán học, lập trình và lập luận khoa học. Cách tiếp cận thận trọng này dẫn đến độ chính xác cao hơn trên các vấn đề khó, mặc dù mất nhiều thời gian hơn một chút để phản hồi.
Hiểu về o3-mini và o4-mini
Sự phát triển của các mô hình lập luận của OpenAI dẫn đến các phiên bản hiệu quả được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Những mô hình “mini” này cung cấp khả năng ấn tượng trong khi giữ yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn.
o3-mini là gì?
OpenAI đã cho ra mắt o3-mini vào ngày 31 tháng 1 năm 2025, đánh dấu sự xuất hiện của mô hình lập luận nhỏ gọn đầu tiên của họ. Mô hình này đáp ứng các tính năng được nhà phát triển yêu cầu nhiều nhất, bao gồm khả năng gọi hàm, Structured Outputs, và developer messages. Là một giải pháp thay thế tiết kiệm chi phí cho mô hình o3 đầy đủ, o3-mini thể hiện xuất sắc trong các lĩnh vực STEM—đặc biệt mạnh mẽ trong khoa học, toán học và lập trình—đồng thời duy trì độ trễ thấp hơn.
Các chuyên gia thử nghiệm nhận thấy o3-mini tạo ra câu trả lời chính xác và rõ ràng hơn so với o1-mini, với 56% thời gian họ ưu tiên chọn phản hồi từ o3-mini. Mô hình này giảm 39% lỗi nghiêm trọng (major errors) khi xử lý các câu hỏi nền tảng khó so với o1-mini. Thời gian phản hồi cũng được cải thiện đáng kể, nhanh hơn 24% so với o1-mini, trung bình chỉ mất 7,7 giây so với 10,16 giây của phiên bản tiền nhiệm.
Giải thích về o3-mini-low, medium và high
Ba biến thể của o3-mini tồn tại dựa trên nỗ lực lập luận: thấp, trung bình và cao. Các nhà phát triển có thể tối ưu hóa cho các trường hợp sử dụng cụ thể—chọn quá trình suy nghĩ sâu hơn cho các vấn đề phức tạp hoặc ưu tiên tốc độ khi độ trễ quan trọng.
O3-mini phù hợp với hiệu suất của o1 trong các đánh giá lập luận và trí thông minh đầy thách thức với nỗ lực lập luận trung bình, bao gồm AIME và GPQA. Các tùy chọn lập luận cao cung cấp khả năng phân tích cải thiện với chi phí thời gian phản hồi hơi lâu hơn. Vì vậy, tất cả người dùng ChatGPT trả phí đều nhận được quyền truy cập vào cả o3-mini (sử dụng lập luận trung bình theo mặc định) và o3-mini-high trong bộ chọn mô hình.
Phiên bản 1 (Dịch sát nghĩa):
O4-mini là gì và nó so sánh với o3-mini như thế nào
OpenAI đã phát hành o4-mini cùng với o3 vào ngày 16 tháng 4 năm 2025, như một mô hình nhỏ hơn được tối ưu hóa cho lập luận nhanh và tiết kiệm chi phí. Mô hình nhỏ gọn này thể hiện hiệu suất đáng chú ý cho kích thước của nó và xuất sắc trong các nhiệm vụ toán học, lập trình và thị giác.
O4-mini vượt trội hơn o3-mini trong cả các nhiệm vụ STEM và phi STEM trong các đánh giá của chuyên gia, bao gồm các lĩnh vực khoa học dữ liệu. Phản hồi của người dùng cho thấy kết quả hỗn hợp—o4-mini cung cấp thông lượng cao hơn và giới hạn sử dụng cao hơn so với o3, nhưng một số người dùng báo cáo vấn đề với việc tạo mã và tính nhất quán so với o3-mini-high.
O4-mini có các biến thể lập luận tiêu chuẩn và cao, với phiên bản cao mất nhiều thời gian hơn để tạo ra câu trả lời có khả năng đáng tin cậy hơn.
Các khả năng chính của o3
O3 của OpenAI nổi bật so với các mô hình AI truyền thống với những khả năng đột phá. Mô hình học thông qua học tăng cường quy mô lớn và thể hiện kỹ năng đáng chú ý trên nhiều lĩnh vực. Điều này khiến nó trở thành một công cụ mạnh mẽ để giải quyết các vấn đề phức tạp.
Lập luận nâng cao và chuỗi suy nghĩ
OpenAI đã huấn luyện mô hình o3 để “suy nghĩ” trước khi đưa ra câu trả lời thông qua cái mà họ gọi là “chuỗi tư duy riêng tư”. Mô hình này lập kế hoạch trước và lập luận thông qua các nhiệm vụ bằng cách thực hiện các bước suy luận trung gian để giải quyết vấn đề. O3 có khả năng phân tích các thách thức phức tạp và cân nhắc nhiều phương pháp tiếp cận khác nhau. Nó tự đánh giá quá trình lập luận của mình trước khi đưa ra câu trả lời cuối cùng. Mặc dù quá trình này đòi hỏi nhiều sức mạnh tính toán hơn và mất nhiều thời gian hơn để phản hồi, nhưng kết quả đầu ra lại chính xác hơn đáng kể.
Visual reasoning: suy nghĩ bằng hình ảnh
Một trong những bước đột phá lớn nhất của o3 là biết cách lập luận với hình ảnh trực tiếp trong chuỗi suy nghĩ của nó. Mô hình không chỉ nhìn thấy hình ảnh – nó suy nghĩ với chúng. O3 làm việc với hình ảnh do người dùng tải lên bằng cách sử dụng các công cụ khác nhau. Nó cắt, phóng to, xoay và áp dụng các kỹ thuật xử lý khác. Điều này giúp o3 phân tích hình ảnh mờ, đảo ngược hoặc chất lượng thấp. Tính năng này chứng tỏ giá trị trong việc giải thích bảng trắng (whiteboards), sơ đồ sách giáo khoa hoặc phác thảo vẽ tay (hand-drawn sketches).
Sử dụng công cụ: duyệt web, lập trình, phân tích tệp
O3 kết hợp lập luận tiên tiến với các khả năng công cụ chi tiết. Bao gồm duyệt web, lập trình Python, phân tích hình ảnh, xử lý tệp và các tính năng bộ nhớ. Các công cụ không chỉ có sẵn – o3 biết chính xác khi nào và cách sử dụng chúng trong quá trình lập luận. Ví dụ, xem cách nó tìm kiếm dữ liệu tiện ích trên web, viết mã Python để dự báo và tạo biểu đồ giải thích – tất cả trong một tương tác.
Tự kiểm tra sự thật và tính năng bộ nhớ
O3 sử dụng sự sắp xếp có cân nhắc để lập luận về các chính sách an toàn khi nó phản hồi các lời nhắc có khả năng không an toàn. Tự kiểm tra sự thật tích hợp giúp phản hồi chính xác hơn. Mô hình cũng nhớ các chi tiết hữu ích giữa các cuộc trò chuyện. Điều này dẫn đến các phản hồi được tùy chỉnh và phù hợp.
Performance trong toán học, lập trình và khoa học
O3 cho thấy kết quả đặc biệt xuất sắc trong các lĩnh vực kỹ thuật:
- Toán học: Độ chính xác 91,6% trên AIME 2024 (so với 74,3% của o1)
- Lập trình: Độ chính xác 69,1% trên SWE-bench Verified (so với 48,9% của o1)
- Khoa học: Độ chính xác 83,3% trên thước đo GPQA Diamond
Safety, access, and pricing
OpenAI đang dẫn đầu trong việc triển khai an toàn và có trách nhiệm các mô hình lập luận của mình. Tài liệu an toàn mới nhất của họ cho thấy cách o3 và o4-mini áp dụng nhiều lớp bảo vệ, vừa ngăn chặn việc sử dụng sai mục đích, vừa hỗ trợ các ứng dụng có ích.
Deliberative alignment: Phương pháp an toàn mới
OpenAI đã phát triển phương pháp sắp xếp có chủ đích – một kỹ thuật an toàn đột phá giúp các mô hình lập luận hiểu trực tiếp các thông số kỹ thuật an toàn do con người viết. Khác với các phương pháp cũ, nơi các mô hình học hành vi mong muốn từ các ví dụ được gắn nhãn, o3 giờ đây có thể suy ngẫm về các thông số này trước khi đưa ra câu trả lời.
Cách tiếp cận này giúp o3 vượt trội hơn GPT-4o trong việc đáp ứng các tiêu chuẩn an toàn nội bộ và bên ngoài. Nó giảm thiểu các kết quả có hại và tránh việc từ chối không cần thiết đối với nội dung an toàn. Đây là một bước tiến vượt bậc so với các phương pháp an toàn truyền thống chỉ dựa vào đào tạo từ các ví dụ.
Preparedness Framework v2
Khung Chuẩn bị phiên bản 2 của OpenAI giờ đây xem xét năm tiêu chí rủi ro: tính khả thi, khả năng đo lường, mức độ nghiêm trọng, tính mới hoàn toàn và liệu rủi ro xảy ra tức thì hay không thể khắc phục.
Khung này đặt ra hai ngưỡng rõ ràng – Khả năng cao và Khả năng quan trọng – kèm theo các cam kết hoạt động cụ thể. O3 và o4-mini đã trải qua đánh giá trong ba lĩnh vực: mối đe dọa sinh học/hóa học, an ninh mạng và khả năng tự cải thiện của AI. Cả hai mô hình đều duy trì dưới ngưỡng ‘Cao’ của khung trong mọi hạng mục.
Cách truy cập o3 và o4-mini thông qua ChatGPT
Người dùng ChatGPT Plus, Pro và Team có thể truy cập o3, o4-mini và o4-mini-high trực tiếp từ bộ chọn mô hình. Người dùng Enterprise và Edu được truy cập một tuần sau khi phát hành ban đầu. Mỗi cấp độ đăng ký có giới hạn khác nhau:
- Plus, Team, Enterprise & Edu: 100 tin nhắn hàng tuần với o3, 300 tin nhắn hàng ngày với o4-mini và 100 tin nhắn hàng ngày với o4-mini-high
- Pro: Truy cập gần như không giới hạn (tùy thuộc vào các biện pháp bảo vệ tự động)
- Miễn phí: Truy cập giới hạn vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo
Giá API và giới hạn sử dụng
Các nhà phát triển có thể sử dụng o3 qua API với giá 254.148,34 VND cho mỗi triệu token đầu vào và 1.016.593,35 VND cho mỗi triệu token đầu ra. O4-mini có giá thấp hơn ở mức 27.956,32 VND cho mỗi triệu token đầu vào và 111.825,27 VND cho mỗi triệu token đầu ra. Người dùng cần xác minh tổ chức ở cấp độ 1-3 để truy cập o3, trong khi tất cả người dùng đã xác minh có thể sử dụng o4-mini. Cả hai mô hình đều hoạt động với cửa sổ ngữ cảnh 200k token và có thể xuất ra tối đa 100k token, điều này cung cấp nhiều không gian cho các tác vụ lập luận phức tạp.

Kết luận
OpenAI o3 đánh dấu một bước ngoặt quan trọng trong lịch sử phát triển AI, khi nó vượt xa khỏi việc đơn thuần so khớp mẫu để hướng tới khả năng lập luận đích thực. Những mô hình này hứa hẹn sẽ phát triển khả năng giải quyết vấn đề ngày càng tinh vi, đi kèm với các biện pháp an toàn được cải thiện. Dòng o chứng minh rằng tương lai của AI không nằm ở việc tạo ra các phản hồi đơn thuần, mà là ở khả năng lập luận thấu đáo trước những vấn đề phức tạp
Câu hỏi thường gặp
C1. Các tính năng chính của mô hình o3 của OpenAI là gì? OpenAI o3 là một mô hình AI tiên tiến sử dụng lập luận mô phỏng để xuất sắc trong các nhiệm vụ giải quyết vấn đề phức tạp. Nó có thể tạm dừng và suy ngẫm trước khi phản hồi, có khả năng lập luận trực quan và tích hợp các công cụ khác nhau như tìm kiếm web và lập trình Python. Mô hình cũng có các biện pháp an toàn nâng cao và cửa sổ ngữ cảnh khổng lồ 200.000 token.
C2. O3 so sánh như thế nào với các mô hình AI trước đây về mặt hiệu suất? O3 thể hiện những cải tiến đáng kể so với các phiên bản tiền nhiệm, mắc ít hơn 20% lỗi lớn trong các nhiệm vụ thực tế khó khăn. Nó đạt độ chính xác 91,6% trên AIME 2025, 69,1% độ chính xác trên điểm chuẩn lập trình SWE-bench Verified, và 87,7% trên điểm chuẩn GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.
C3. O3-mini và o4-mini là gì, và chúng khác với mô hình o3 đầy đủ như thế nào? O3-mini và o4-mini là các phiên bản tinh gọn của mô hình o3, được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Chúng cung cấp khả năng ấn tượng với yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn. O3-mini có các biến thể nỗ lực lập luận thấp, trung bình và cao, trong khi o4-mini được tối ưu hóa cho lập luận nhanh, tiết kiệm chi phí.
C4. Người dùng có thể truy cập các mô hình o3 và o4-mini như thế nào? Người dùng ChatGPT Plus, Pro, Team và Enterprise có thể truy cập o3, o4-mini và o4-mini-high thông qua bộ chọn mô hình. Giới hạn sử dụng thay đổi theo cấp độ đăng ký. Đối với các nhà phát triển, cả hai mô hình đều có sẵn thông qua API với cấu trúc giá khác nhau. Người dùng miễn phí có quyền truy cập hạn chế vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo.
C5. Các biện pháp an toàn nào được triển khai trong mô hình o3? O3 kết hợp một phương pháp an toàn mới gọi là sắp xếp có cân nhắc, dạy mô hình lập luận rõ ràng về các thông số kỹ thuật an toàn. Nó cũng có khả năng tự kiểm tra sự thật và được đánh giá theo Khung Chuẩn bị v2 cập nhật của OpenAI, đánh giá rủi ro trên các tiêu chí khác nhau để đảm bảo triển khai AI có trách nhiệm.
Dieter R.

Chào bạn đến với khóa học AI tạo sinh 5 ngày độc đáo. Khóa học được tổ chức bởi Google trên nền tảng Kaggle. Đây là một cơ hội hiếm có để học hỏi trực tiếp từ các chuyên gia hàng đầu của Google. Đặc biệt là từ đội ngũ Google DeepMind.
Nội dung chính
Khóa Học AI Tạo Sinh 5 Ngày: Livestream Ngày 1
Paige Bailey sẽ thảo luận về các bài tập với các tác giả khóa học. Bên cạnh đó có những khách mời đặc biệt khác từ Google. Khách mời hôm nay bao gồm Warren Barkley, Logan Kilpatrick, Kieran Milan, Anant Nawalgaria, Irina Sigler và Mat Velloso.
Video có phụ đề tiếng Việt.
Video gốc (không có phụ đề tiếng Việt): https://www.youtube.com/live/WpIfAeCIFc0
Thông tin thêm
Đào Tạo Toàn Diện cho Hơn 140.000 Nhà Phát Triển
Khóa học Generative AI 5 ngày của Google không chỉ là một chuỗi bài giảng đơn thuần. Nó còn là một hành trình học tập toàn diện. Khóa học được thiết kế cẩn thận. Nhằm cung cấp kiến thức chuyên sâu về AI tạo sinh. Với số lượng hơn 140.000 nhà phát triển đã đăng ký tham gia. Đây là một trong những sự kiện quan trọng nhất từng được tổ chức cho các nhà phát triển.
Khóa học đã được thiết kế tinh tế. Kết hợp giữa lý thuyết, thực hành và tương tác cộng đồng. Nhằm giúp những người tham gia có được hiểu biết vững chắc về Gen AI. Từ cơ bản đến nâng cao.
Mỗi ngày trong khóa học đều tập trung vào một chủ đề cụ thể. Nhằm mang đến cho người học góc nhìn toàn diện về công nghệ AI tạo sinh.
- Ngày 1 khám phá về Các Mô hình Nền tảng và Kỹ thuật Prompt;
- Ngày 2 đi sâu vào Embeddings và Vector Stores/Databases;
- Ngày 3 tập trung vào Generative AI Agents;
- Ngày 4 nghiên cứu về Domain-Specific LLMs;
- và cuối cùng, Ngày 5 giới thiệu về MLOps cho AI tạo sinh.
Cách tiếp cận đa dạng này giúp người học có thể nắm bắt được cả lý thuyết nền tảng. Lẫn các ứng dụng thực tế của AI tạo sinh.
Trải Nghiệm Học Tập Toàn Diện Với Podcast AI, Phòng Thí Nghiệm Mã Và Tương Tác Trực Tiếp Cùng Chuyên Gia
Điểm đặc biệt của khóa học là các bài tập được thiết kế đa dạng, bao gồm podcast được tạo bởi AI (sử dụng NotebookLM), các bài báo trắng (white papers) thông tin do các chuyên gia Google viết, và các phòng thí nghiệm mã (code labs) để người học có thể trải nghiệm thực tế với Gemini API và các công cụ khác. Người học cũng có cơ hội tham gia vào các buổi phát trực tiếp với các khách mời chuyên gia từ Google, nơi họ có thể đặt câu hỏi và tương tác với những người tạo ra khóa học. Đây là cơ hội quý báu để đi sâu hơn vào các chủ đề chuyên đề và hiểu rõ hơn về ứng dụng của AI tạo sinh.
Ngoài ra, khóa học còn cung cấp một kênh Discord được hỗ trợ tích cực bởi các nhân viên Google, tạo ra một không gian cộng đồng sôi động để trao đổi kiến thức và chia sẻ trải nghiệm. Các phòng thí nghiệm mã trên Kaggle cho phép người tham gia thử nghiệm với các kỹ thuật và công cụ AI tạo sinh khác nhau, bao gồm Gemini API, Embeddings, công cụ mã nguồn mở như Langraph cũng như Vertex AI. Đối với những ai đã bỏ lỡ khóa học trực tiếp, một số nội dung phổ biến nhất đã được điều chỉnh thành định dạng tự học và có sẵn dưới dạng Kaggle Learn Guide, giúp mọi người vẫn có thể tiếp cận với kiến thức quý giá này
Danh sách tham khảo
[1] 5-Day Gen AI Intensive Course with Google Learn Guide – Kaggle
[2] Google and Kaggle launch five-day intensive Generative AI course
[3] Kaggle’s 5-Day Gen AI Intensive Course
Công nghệ
AI Cách Mạng: Khởi Nghiệp Công Nghệ Tương Lai Ngay
Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.
Published
3 months agoon
23 February, 2025
Khởi nghiệp AI đang định hình tương lai kinh doanh. Với sức mạnh công nghệ, startup AI giải phóng tiềm năng sáng tạo, tối ưu hóa quy trình và mở ra những cơ hội kinh doanh chưa từng có trong kỷ nguyên số.
DeepSeek đang tạo ra một bước ngoặt mới cho Thung lũng Silicon.
Hầu như ngày nào, doanh nhân Grant Lee cũng được các nhà đầu tư thuyết phục xuống tiền. Một số người thậm chí còn gửi cho ông và những người đồng sáng lập khác nhiều giỏ quà đắt đỏ để lấy lòng.
Ông Lee, 41 tuổi, trước đây đã giúp thành lập một công ty khởi nghiệp AI có tên Gamma. Giống như nhiều startup trẻ khác ở Thung lũng Silicon, Gamma theo đuổi một chiến lược mới: sử dụng các công cụ trí tuệ nhân tạo để tăng năng suất của nhân viên, từ dịch vụ khách hàng, tiếp thị đến mã hóa và nghiên cứu.
Điều đó có nghĩa là Gamma không cần thêm tiền mặt nữa, ông Lee cho biết. Công ty của ông chỉ tuyển dụng 28 người cũng có thể tạo ra hàng chục triệu USD doanh thu định kỳ hàng năm với gần 50 triệu người dùng. Gamma cũng có lãi.
Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.
Mô hình Thung lũng Silicon cũ chỉ ra rằng các công ty khởi nghiệp nên huy động một khoản tiền lớn từ các nhà đầu tư mạo hiểm, sau đó chi tiền thuê một đội ngũ nhân viên để mở rộng quy mô. Trong khi đó, Gamma vẫn kiếm được tiền và phát triển nhanh chóng dù không cần vốn tài trợ hay số lượng lớn nhân viên.
Những câu chuyện thành công này đã thu hút sự chú ý của Thung lũng Silicon. Anysphere, một công ty khởi nghiệp tạo ra phần mềm mã hóa Cursor, đạt doanh thu 100 triệu USD trong vòng chưa đầy hai năm với chỉ 20 nhân viên. ElevenLabs, một công ty A.I. công ty khởi nghiệp bằng giọng nói, cũng làm nên kỳ tích tương tự với khoảng 50 nhân sự.
Khả năng A.I. cho phép các công ty khởi nghiệp làm được nhiều việc hơn với ít nhân viên hơn đã dẫn đến những suy đoán hoang đường về tương lai. Sam Altman, giám đốc điều hành của OpenAI, dự đoán rằng một ngày nào đó có thể có một công ty một người trị giá 1 tỷ USD.

Với các công cụ A.I., một số công ty khởi nghiệp hiện đang tuyên bố ngừng tuyển dụng ở một quy mô nhất định. Runway Financial, một công ty phần mềm tài chính, cho biết chỉ tuyển tối đa 100 nhân viên vì mỗi người sẽ tăng năng suất gấp rưỡi. Agency, startup sử dụng A.I. cho dịch vụ khách hàng, cũng có kế hoạch tuyển dụng không quá 100 nhân viên.
“Mục đích là loại bỏ những vai trò không cần thiết”, Elias Torres, người sáng lập Agency, cho biết.
Ý tưởng này được thúc đẩy bởi DeepSeek, công ty khởi nghiệp A.I. của Trung Quốc xây dựng các công cụ trí tuệ nhân tạo với chi phí chỉ bằng một phần nhỏ so với chi phí thông thường. Bước đột phá, được xây dựng trên các công cụ nguồn mở có sẵn miễn phí trực tuyến, đã tạo ra sự bùng nổ của các công ty xây dựng sản phẩm mới giá rẻ.
“DeepSeek là một bước ngoặt”, Gaurav Jain, một nhà đầu tư tại công ty đầu tư mạo hiểm Afore Capital, đơn vị đã hỗ trợ Gamma, cho biết. “Chi phí điện toán sẽ giảm rất, rất nhanh, rất nhanh”.

Ông Jain so sánh các công ty khởi nghiệp A.I. mới với làn sóng cuối những năm 2000, sau khi Amazon bắt đầu cung cấp các dịch vụ điện toán đám mây giá rẻ. Điều đó đã làm giảm chi phí thành lập công ty, dẫn đến một loạt các công ty khởi nghiệp mới có thể được xây dựng với chi phí rẻ.
Trước cơn sốt A.I. này, các công ty khởi nghiệp thường đốt 1 triệu USD để đạt được doanh thu 1 triệu USD. Bây giờ, để đạt được doanh thu 1 triệu USD, chi phí chỉ bằng 1/5 và cuối cùng có thể giảm xuống còn 1/10, theo phân tích của Afore đối với 200 công ty khởi nghiệp.
Ông Jain cho biết: “Lần này, chúng tôi đang tự động hóa con người chứ không chỉ tự động hóa các trung tâm dữ liệu”.
Tuy nhiên, nếu các công ty khởi nghiệp vẫn có thể có lãi mà không cần chi nhiều tiền, điều đó có thể trở thành vấn đề lớn đối với các nhà đầu tư mạo hiểm, những người phân bổ hàng chục tỷ USD để đầu tư vào các công ty khởi nghiệp A.I. Năm ngoái, các công ty A.I. đã huy động được 97 tỷ USD tiền tài trợ, chiếm 46% tổng số tiền đầu tư mạo hiểm tại Mỹ, theo PitchBook.
“Vốn đầu tư mạo hiểm chỉ hiệu quả nếu bạn rót tiền vào những người chiến thắng”, Terrence Rohan, một nhà đầu tư của Quỹ Otherwise, tập trung vào các công ty khởi nghiệp rất trẻ, cho biết.
“Nếu người chiến thắng trong tương lai cần ít tiền hơn, không biết dòng vốn đầu tư mạo hiểm sẽ ra sao?”.
Hiện tại, các nhà đầu tư vẫn tiếp tục đấu tranh để đầu tư vào các công ty đang phát triển mạnh nhất, nhiều công ty trong số đó không cần thêm tiền. Một số nhà đầu tư lạc quan rằng hiệu quả do A.I. thúc đẩy sẽ thôi thúc các doanh nhân thành lập nhiều công ty hơn, dẫn đến nhiều cơ hội đầu tư hơn. Họ hy vọng khi các công ty khởi nghiệp đạt đến một quy mô nhất định, họ sẽ áp dụng mô hình cũ là các nhóm lớn và tiền lớn.
Quay trở lại với Gamma.
Ông Lee cho biết ông đang có kế hoạch tăng gấp đôi lực lượng lao động trong năm nay lên 60, tuyển dụng cho bộ phận thiết kế, kỹ thuật và bán hàng. Nhân sự phải có kiến thức tổng quát có thể thực hiện nhiều nhiệm vụ thay vì một việc như trước đây. Theo ông Lee, mô hình hiệu quả với AI đã giúp giải phóng thời gian. Bây giờ ông chỉ việc tập trung tư vấn khách hàng và cải thiện sản phẩm.
“Đó thực sự là giấc mơ của mọi nhà sáng lập”, ông Lee nói.
Theo: Financial Times, WSJ
Hashtags: #StartupAI #CongNgheKhoiNghiep #KinhDoanhCongNghe #AIKhaiPha #StartupCongNghe
Nguồn: markettimes.vn / 21-Feb-2025 / https://markettimes.vn/deepseek-khoi-phat-ky-nguyen-startup-gia-re-chi-20-nhan-su-cung-tao-ra-hang-chuc-trieu-usd-cac-cong-ty-khong-con-khat-tien-mat-77486.html
Trending
-
Video4 months ago
Video Truyền Cảm Hứng Thành Công Mạnh Mẽ Nhất
-
Khóa học9 months ago
41 Tài Nguyên Về “Reinforcement Learning” (Học Tăng Cường) Tốt Nhất
-
Khóa học7 months ago
Đây là 38 Khóa học Miễn phí về Khoa học Dữ liệu trên Coursera mà bạn nên biết vào năm 2024.
-
Công nghệ9 months ago
44 công ty khởi nghiệp AI triển vọng nhất năm 2024
-
Công nghệ6 months ago
Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1
-
Công nghệ8 months ago
Robo Advisor là gì?
-
Công nghệ5 months ago
Câu chuyện tình yêu ❤️Ch3
-
Giải trí5 months ago
Câu chuyện tình yêu ❤️Ch4
Pingback: Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1 – KenkAI