Connect with us

Công nghệ

Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1

Published

on

Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 1
(Hình ảnh: altexsoft.com)

Chắc chắn bạn đã nhận thấy rằng hình ảnh trên được tạo ra bởi trí tuệ nhân tạo – cụ thể là Midjourney. Tuy nhiên, việc dịch chuyển từ văn bản sang hình ảnh (text-to-image translation) chỉ là một trong nhiều ví dụ về những gì các mô hình trí tuệ nhân tạo sinh tạo làm ngày nay. Những nhà sáng tạo kỹ thuật số này đang giúp với các công việc nhàm chán (tedious tasks), thiết kế, viết và xây dựng mọi thứ từ trang web đến các bản nhạc nhanh hơn chúng ta có thể đánh vần algorithm (thuật toán).

Các mạng nơ-ron có thể tạo ra nội dung hình ảnh, âm thanh và video mà không phải mọi người đều có thể. (Hình ảnh: altexsoft.com)

Tác động của trí tuệ nhân tạo sinh tạo đối với các doanh nghiệp trong các lĩnh vực khác nhau là rất lớn và tiếp tục tăng lên. Theo một cuộc khảo sát gần đây của Gartner, các chủ doanh nghiệp đã báo cáo về giá trị thiết yếu được thu được từ các sáng kiến GenAI: tăng doanh thu trung bình 16%, tiết kiệm chi phí 15% và cải thiện năng suất 23%.

Sẽ là một sai lầm lớn nếu chúng ta không chú ý đúng mức đến chủ đề này. Vì vậy, bài đăng này sẽ giải thích về các mô hình trí tuệ nhân tạo sinh tạo, cách chúng hoạt động và các ứng dụng thực tiễn của chúng trong các lĩnh vực khác nhau.

Trí tuệ nhân tạo Generative AI được giải thích trong ít hơn 15 phút

What is generative AI?

Generative AI là gì?

Trí tuệ nhân tạo sinh tạo đề cập đến các thuật toán học máy không giám sát và bán giám sát cho phép máy tính sử dụng nội dung hiện có như văn bản, tệp âm thanh và video, hình ảnh và thậm chí mã để tạo ra nội dung mới có thể. Ý chính là tạo ra các tác phẩm hoàn toàn mới nguyên bản trông giống như thật.

Mô hình trí tuệ nhân tạo sinh tạo có thể vẽ ra hình ảnh từ các lời nhắc bằng văn bản (prompt) như thế này… (Hình ảnh: altexsoft.com)

Trí tuệ nhân tạo sinh tạo cho phép máy tính trừu tượng hóa các mẫu cơ bản liên quan đến dữ liệu đầu vào để mô hình có thể tạo ra hoặc xuất ra nội dung mới.

Về hiện tại, có nhiều mô hình trí tuệ nhân tạo sinh tạo được sử dụng rộng rãi nhất, và chúng ta sẽ xem xét kỹ bốn trong số chúng.

  • Generative Adversarial Networks (Mạng đối kháng sinh tạo), hay GANs – là những công nghệ có thể tạo ra các tác phẩm hình ảnh và đa phương tiện từ cả dữ liệu đầu vào là hình ảnh và văn bản.
  • Transformer-based models Các mô hình dựa trên Transformer – bao gồm các công nghệ như các mô hình ngôn ngữ Generative Pre-Trained (GPT) có thể dịch và sử dụng thông tin thu thập trên Internet để tạo ra nội dung văn bản.
  • Variational Autoencoders Bộ mã hóa biến phân (VAEs) được sử dụng trong các tác vụ như tạo hình ảnh và phát hiện bất thường.
  • Diffusion models vượt trội trong việc tạo ra hình ảnh và video thực tế từ nhiễu ngẫu nhiên (các tập hợp dữ liệu ngẫu nhiên).

Để hiểu ý tưởng đằng sau trí tuệ nhân tạo sinh tạo, chúng ta cần xem xét sự khác biệt giữa mô hình phân biệt (discriminative modeling) và mô hình sinh tạo (generative modeling).

How does gen AI work: discriminative vs generative modeling

Trí tuệ nhân tạo sinh tạo hoạt động như thế nào: mô hình phân biệt so với mô hình sinh tạo

Mô hình phân biệt được sử dụng để phân loại các điểm dữ liệu hiện có (ví dụ: hình ảnh mèo và heo tenin vào các danh mục tương ứng). Nó chủ yếu thuộc về các tác vụ học máy có giám sát (supervised machine learning).

Mô hình sinh tạo cố gắng hiểu cấu trúc tập dữ liệu và tạo ra các ví dụ tương tự (ví dụ: tạo ra một bức ảnh thực tế của một con heo tenin hoặc một con mèo). Nó chủ yếu thuộc về các tác vụ học máy không giám sát và bán giám sát (unsupervised and semi-supervised machine learning).

Học có giám sát (supervised machine learning) và không giám sát (unsupervised machine learning) một cách súc tích. (Hình ảnh: altexsoft.com)

Càng nhiều mạng nơ-ron xâm nhập vào cuộc sống của chúng ta, thì lĩnh vực mô hình phân biệt và mô hình sinh tạo càng phát triển. Hãy thảo luận chi tiết hơn về mỗi lĩnh vực này.

Discriminative modeling

Mô hình phân biệt

Hầu hết các mô hình học máy được sử dụng để đưa ra dự đoán. Các thuật toán phân biệt cố gắng phân loại dữ liệu đầu vào dựa trên một số đặc trưng và dự đoán nhãn hoặc lớp mà một ví dụ dữ liệu (quan sát) nhất định thuộc về.

Giả sử chúng ta có dữ liệu huấn luyện chứa nhiều hình ảnh của mèo và heo tenin. Những thứ này cũng được gọi là mẫu. Mỗi mẫu đi kèm với một tập các đặc trưng (X) và một nhãn lớp (Y), trong trường hợp của chúng ta, có thể là “mèo” hoặc “heo tenin”. Chúng ta cũng có một mạng nơ-ron nhằm hiểu cách phân biệt giữa hai lớp và dự đoán xác suất một mẫu nhất định thuộc về một trong hai lớp đó.

Trong quá trình huấn luyện, mỗi dự đoán (ŷ) được so sánh với nhãn thực tế (Y). Dựa trên sự khác biệt giữa hai giá trị này, mô hình dần dần học được mối quan hệ giữa các đặc trưng và các lớp, và tương quan kết quả của nó.

Discriminative modeling. (Hình ảnh: altexsoft.com)

Hãy giới hạn sự khác biệt giữa mèo và heo tenin chỉ trong hai đặc trưng trong tập đặc trưng X (ví dụ, “sự có mặt của đuôi” và “hình dạng của tai”). Vì mỗi đặc trưng là một chiều, nó sẽ dễ dàng trình bày chúng trong không gian dữ liệu 2 chiều. Trong hình minh họa trên, các chấm xanh dương là heo tenin, và các chấm cam là mèo. Đường thẳng biểu diễn ranh giới quyết định hoặc mô hình phân biệt đã học để phân tách mèo khỏi heo tenin dựa trên những đặc trưng đó.

Khi mô hình này đã được huấn luyện, nó sẽ kiểm tra xem một bức ảnh mới sẽ rơi vào phía nào của ranh giới quyết định. Để làm điều này, mô hình, theo một cách nào đó, chỉ “nhớ lại” vật thể trông như thế nào từ những gì nó đã thấy.

Để tóm lại, mô hình phân biệt kiểu như nén thông tin về sự khác biệt giữa mèo và heo tenin, mà không cố gắng hiểu một con mèo là gì và một con heo tenin là gì.

Generative modeling

Mô hình sinh tạo

Các thuật toán sinh tạo làm hoàn toàn ngược lại – thay vì dự đoán một nhãn được gán cho một số đặc trưng, chúng cố gắng dự đoán các đặc trưng dựa trên một nhãn nhất định. Các thuật toán phân biệt quan tâm đến mối quan hệ giữa X và Y; các mô hình sinh tạo quan tâm đến cách bạn có được X từ Y.

Generative modeling. (Hình ảnh: altexsoft.com)

Về mặt toán học, mô hình sinh tạo cho phép chúng ta nắm bắt xác suất của x và y xảy ra cùng nhau. Nó tập trung vào việc học các đặc trưng và mối quan hệ của chúng để có ý tưởng về những gì khiến mèo trông giống mèo và heo tenin trông giống heo tenin. Kết quả là, những thuật toán như vậy không chỉ phân biệt được hai con vật mà còn tái tạo hoặc tạo ra hình ảnh của chúng.

Bạn có thể tự hỏi, “Tại sao chúng ta lại cần các thuật toán discriminative algorithms?” Sự thật là chúng dễ giám sát và giải thích hơn (explainable) – với những từ khác, bạn có thể hiểu tại sao mô hình đi đến một kết luận nhất định (why the model comes to a certain conclusion).

Ngoài ra, trong nhiều trường hợp không quan trọng dữ liệu được tạo ra như thế nào – chúng ta chỉ cần biết nó thuộc về danh mục nào, và đó chính xác là nơi mà các mô hình phân biệt vượt trội. Hãy nghĩ về phân tích cảm xúc trong đánh giá khách sạn – mục tiêu của nó là phát hiện xem một bình luận có phải là tích cực hay tiêu cực, chứ không phải tạo ra các đánh giá giả. Các mô hình phân biệt vẫn là lựa chọn hàng đầu cho nhận dạng hình ảnh, phân loại tài liệu, phát hiện gian lận và nhiều nhiệm vụ kinh doanh hàng ngày khác.

Generative AI (Trí tuệ nhân tạo sinh tạo) có các ứng dụng kinh doanh vượt ra ngoài những gì được bao phủ bởi các mô hình discriminative models. Hãy xem những mô hình chung nào có thể được sử dụng để giải quyết một loạt các vấn đề khác nhau và đạt được kết quả ấn tượng.

Generative AI models and algorithms

Các mô hình và thuật toán trí tuệ nhân tạo sinh tạo

Các thuật toán và mô hình liên quan khác nhau đã được phát triển và huấn luyện (trained) để tạo ra nội dung mới, thực tế từ dữ liệu hiện có. Một số mô hình, mỗi cái với các cơ chế và khả năng riêng, đang đi đầu trong các lĩnh vực như tạo hình ảnh (image generation), dịch văn bản (text translation) và tổng hợp dữ liệu (data synthesis). Một số, như GANs, đã hơi lỗi thời nhưng vẫn được sử dụng.

Generative adversarial networks

Mạng đối kháng sinh tạo

Mạng đối kháng sinh tạo, hay GAN, là một khuôn khổ học máy đặt hai mạng nơ-ron – bộ tạo “generator” và bộ phân biệt “discriminator” – đối lập với nhau, do đó có “đối kháng” trong tên gọi. Cuộc tranh chấp giữa chúng là một trò chơi tổng bằng không, trong đó lợi ích của một bên là tổn thất của bên kia.

Mạng đối kháng sinh tạo (GANs) được phát minh bởi Jan Goodfellow và các đồng nghiệp của ông tại Đại học Montreal vào năm 2014. Họ mô tả kiến trúc GAN trong một bài báo có tựa đề “Mạng đối kháng sinh tạo”. Kể từ đó, đã có rất nhiều nghiên cứu và ứng dụng thực tế. GANs là thuật toán trí tuệ nhân tạo sinh tạo phổ biến nhất cho đến khi các mô hình dựa trên lan tỏa và transformer (bạn sẽ đọc về chúng bên dưới) gặt hái thành công gần đây.

GAN architecture. (Hình ảnh: altexsoft.com)

Trong kiến trúc của chúng, GANs có hai mô hình học sâu:

Bộ tạo “generator” – một mạng nơ-ron có nhiệm vụ tạo ra đầu vào giả hoặc mẫu giả từ một vector ngẫu nhiên (một danh sách các biến toán học có giá trị không xác định); và

Bộ phân biệt “discriminator” – một mạng nơ-ron có nhiệm vụ lấy một mẫu nhất định và quyết định xem nó có phải là một mẫu giả từ bộ tạo hay là một quan sát thực.

Bộ phân biệt cơ bản là một bộ phân loại nhị phân trả về các xác suất – một số giữa 0 và 1. Kết quả càng gần 0, càng có khả năng đầu ra sẽ là giả. Ngược lại, các số gần 1 cho thấy khả năng dự đoán là thực cao hơn.

Cả bộ tạo và bộ phân biệt thường được thực hiện dưới dạng mạng nơ-ron tích chập (CNN), đặc biệt khi làm việc với hình ảnh.

Vì vậy, bản chất đối kháng của GANs nằm trong một kịch bản lý thuyết trò chơi trong đó mạng tạo ra phải cạnh tranh với đối thủ. Mạng tạo ra trực tiếp tạo ra các mẫu giả. Đối thủ của nó, mạng phân biệt, cố gắng phân biệt giữa các mẫu được rút ra từ dữ liệu huấn luyện và những mẫu được rút ra từ mạng tạo ra. Trong kịch bản này, luôn có một người thắng và một người thua. Bất kỳ mạng nào thất bại sẽ được cập nhật trong khi đối thủ của nó vẫn không thay đổi.

GANs sẽ được coi là thành công khi một bộ tạo generator tạo ra một mẫu giả rất thuyết phục, đến mức có thể lừa được một bộ phân biệt discriminator và cả con người. Nhưng trò chơi không dừng lại ở đó; đã đến lúc bộ phân biệt discriminator phải được cập nhật và trở nên tốt hơn. Lặp lại.

Transformer-based models

Các mô hình dựa trên Transformer

Mô hình dựa trên Transformer được mô tả lần đầu tiên trong một bài báo của Google vào năm 2017, là một khuôn khổ học máy rất hiệu quả cho các tác vụ xử lý ngôn ngữ tự nhiên (NLP). Nó học cách tìm các mẫu trong dữ liệu tuần tự như văn bản viết hoặc ngôn ngữ nói. Dựa trên ngữ cảnh, mô hình có thể dự đoán phần tử tiếp theo của chuỗi, ví dụ như từ tiếp theo trong một câu. Nó rất phù hợp cho việc dịch và tạo văn bản.

Một số ví dụ nổi tiếng về các mô hình dựa trên Transformer là GPT-4 của OpenAI và Claude của Anthropic

Transformer-based architecture. (Hình ảnh: altexsoft.com)

Hãy cùng xem xét từng bước về cách một mô hình dựa trên Transformer hoạt động.

Tokenization. Trong các mô hình transformer, quá trình tokenization là việc chia dữ liệu đầu vào thành các phần nhỏ hơn gọi là token. Đối với văn bản, các token có thể là từ, các phần từ hoặc ký tự. Ví dụ, câu “The quick brown fox jumps over the lazy dog” có thể được tokenized thành các token như “The”, “quick”, “brown”, “fox”, “jumps”, “over”, “the”, “lazy”, “dog”.

Embedding. Các token đầu vào được chuyển đổi thành các vector số học được gọi là embedding. Mỗi token được biểu diễn bởi một vector duy nhất (một tập hợp các số thực). Một vector biểu diễn các đặc trưng ngữ nghĩa của một từ, với các từ tương tự có các vector gần giá trị. Ví dụ, từ crown có thể được biểu diễn bằng vector [3,103,35], trong khi apple có thể là [6,7,17], và pear có thể trông giống như [6.5,6,18]. Tất nhiên, những vector này chỉ mang tính minh họa; những vector thực tế có nhiều chiều hơn.

Positional encoding. Mã hóa vị trí. Để hiểu văn bản, thứ tự của các từ trong một câu quan trọng không kém so với chính các từ đó. Vì vậy, ở giai đoạn này, thông tin về vị trí của mỗi token trong một chuỗi được thêm vào dưới dạng một vector khác, được tóm gọn với một embedding đầu vào. Kết quả là một vector phản ánh ý nghĩa ban đầu của từ và vị trí của nó trong câu.

Nó sau đó được cấp vào mạng nơ-ron transformer, bao gồm hai khối.

Self-attention mechanism Cơ chế chú ý tự động tính toán các mối quan hệ ngữ cảnh giữa các token bằng cách xác định tầm quan trọng của mỗi phần tử trong một chuỗi và xác định độ mạnh của các mối liên kết giữa chúng. Về mặt toán học, các mối quan hệ giữa các từ trong một cụm từ trông giống như khoảng cách và góc giữa các vector trong không gian vector đa chiều. Cơ chế này có thể phát hiện những cách tinh tế mà ngay cả các phần tử dữ liệu xa cách trong một chuỗi cũng ảnh hưởng và phụ thuộc vào nhau.

Ví dụ, trong câu “I poured water from the pitcher into the cup until it was full” và “I poured water from the pitcher into the cup until it was empty(“Tôi đổ nước từ bình vào cốc cho đến khi nó đầy” và “Tôi đổ nước từ bình vào cốc cho đến khi nó trống”,), một cơ chế chú ý tự động (self-attention mechanism) có thể phân biệt ý nghĩa của từ “it” (nó) : Trong trường hợp trước, đại từ này chỉ cốc, trong trường hợp sau chỉ bình.

The feedforward network (refines token representations) Mạng feedforward tinh chỉnh các biểu diễn token bằng cách sử dụng kiến thức về từ mà nó đã học từ dữ liệu huấn luyện (nhưng thành thật mà nói, thậm chí đối với các nhà khoa học, việc giải thích chính xác những gì nó làm cũng là một thách thức).

The self-attention and feedforward stages được lặp lại nhiều lần qua các lớp xếp chồng, cho phép mô hình nắm bắt các mẫu ngày càng phức tạp trước khi tạo ra đầu ra cuối cùng.

The softmax function is used at the end to calculate the likelihood of different outputs and choose the most probable option.

Sau đó, đầu ra (generated output) được tạo ra được nối vào đầu vào, và toàn bộ quá trình lặp lại.

Diffusion models

The diffusion model is a generative model that creates new data, such as images or sounds, by mimicking the data on which it was trained.

mô hình sinh tạo tạo ra dữ liệu mới, như hình ảnh hoặc âm thanh, bằng cách bắt chước dữ liệu mà nó được huấn luyện.

Một chú corgi (một giống chó nhỏ có nguồn gốc từ xứ Wales) chuyển sang nhiễu ngẫu nhiên… và trở lại thành một chú corgi. (Hình ảnh: altexsoft.com)

Hãy nghĩ “diffusion model” như một nghệ sĩ-nhà phục chế đã nghiên cứu các bức tranh của các họa sĩ cổ điển và giờ đây có thể vẽ lại những bức vải của họ theo cùng một phong cách. Mô hình lan tỏa làm điều tương tự theo ba giai đoạn chính.

Direct diffusion từ từ đưa nhiễu vào hình ảnh gốc cho đến khi kết quả chỉ là một tập hợp hỗn loạn các điểm ảnh.

Nếu chúng ta quay lại ví dụ về nghệ sĩ-nhà phục chế, direct diffusion được xử lý bởi thời gian, phủ lên bức tranh một mạng lưới các vết nứt, bụi và mỡ; đôi khi, bức tranh được làm lại, thêm vào một số chi tiết và loại bỏ những chi tiết khác.

The learning stage: Giai đoạn học tập giống như việc nghiên cứu một bức tranh để nắm bắt ý định ban đầu của họa sĩ cổ điển. Mô hình cẩn thận phân tích cách thức mà nhiễu được thêm vào làm thay đổi dữ liệu. Nó cẩn thận theo dõi đường đi từ hình ảnh gốc đến phiên bản hỗn loạn của nó, học cách phân biệt giữa dữ liệu gốc và dữ liệu bị sai lệch tại mỗi bước. Sự hiểu biết này cho phép mô hình có thể hiệu quả đảo ngược quá trình sau này.

Sau khi học tập, mô hình này có thể tái tạo lại dữ liệu bị sai lệch thông qua quá trình được gọi là reverse diffusion. Nó bắt đầu từ một mẫu nhiễu và loại bỏ dần các vết mờ – cùng một cách mà nghệ sĩ của chúng ta loại bỏ các tạp chất và sau đó lớp sơn. Kết quả là dữ liệu mới gần với dữ liệu gốc – chẳng hạn như một bức ảnh của một con chó, nhưng không phải chính xác là con chó như trong hình ảnh gốc.

Kỹ thuật này cho phép các mô hình diffusion models tạo ra các hình ảnh, âm thanh và các loại dữ liệu khác một cách thực tế.

Midjourney và DALL-E là hai công cụ tạo hình ảnh nổi tiếng dựa trên các mô hình diffusion models.

Phần 2: https://kenkai.vn/giao-duc/giai-thich-cac-mo-hinh-tri-tue-nhan-tao-tao-sinh-%f0%9f%a4%96phan-2/

Tác giả: altexsoft.com,

Link bài gốc: Generative AI Models Explained | Bài được cập nhật lần cuối vào Ngày 05 tháng 09 năm 2024 | www.altexsoft.com

Dịch giả: Dieter R – KenkAI Nhiều thứ hay

(*) Bản quyền bản dịch thuộc về Dieter R. Tuy nhiên, nội dung bài viết không phải do tôi tạo ra. Mọi khiếu nại về bản quyền (nếu có) xin vui lòng gửi email đến địa chỉ purchasevn@getkenka.com. Xin chân thành cảm ơn.

(**) Follow KenkAI Nhiều thứ hay để đọc các bài dịch khác và cập nhật thông tin bổ ích hằng ngày.

Continue Reading
1 Comment

1 Comment

  1. Pingback: Giải thích các Mô hình Trí Tuệ Nhân tạo Tạo sinh 🤖Phần 2 – KenkAI

Leave a Reply

Your email address will not be published. Required fields are marked *

Công nghệ

Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất

Published

on

OpenAI o3 nổi bật như một mô hình AI có khả năng lập luận mạnh mẽ nhất từ trước đến nay. Mô hình này thể hiện xuất sắc trong việc giải quyết các bài toán phức tạp và đã đạt thành tích ấn tượng với độ chính xác 91,6% trong Kỳ thi Toán học American Invitational Mathematics Examination (AIME) 2025.

Năng lực của o3 bao trùm nhiều lĩnh vực từ lập trình, toán học, khoa học cho đến nhận thức thị giác. So với phiên bản tiền nhiệm, mô hình này giảm 20% lỗi nghiêm trọng trong các tác vụ nền tảng, mặc dù tiêu tốn gấp 10 lần tài nguyên tính toán.

OpenAI o3 thể hiện bước tiến vượt bậc so với các mô hình tiền nhiệm. Kể từ ngày ra mắt 16 tháng 4 năm 2025, mô hình O-series mới nhất này áp dụng cơ chế lập luận mô phỏng, cho phép nó “suy ngẫm” trước khi đưa ra phản hồi. ChatGPT o3 tích hợp liền mạch nhiều công cụ, tạo nên trải nghiệm đa dạng. Mô hình này có khả năng tự quyết định thời điểm sử dụng tìm kiếm web và phân tích dữ liệu Python. Phiên bản o3 đầy đủ mang đến khả năng lập luận toàn diện nhất với với cửa sổ ngữ cảnh khổng lồ lên tới 200.000 token, trong khi các biến thể nhỏ gọn hơn sẽ được ra mắt trong tương lai.

Hãy cùng tìm hiểu những đặc điểm nổi bật của o3, từ khả năng lập luận trực quan đến vai trò của nó trong Khung Chuẩn bị mới “Preparedness Framework” của OpenAI. Mô hình này đánh dấu một bước tiến quan trọng khi là mô hình AI đầu tiên tích hợp các tính năng an toàn như cơ chế sắp xếp có chủ đích – một bước đột phá trong việc phát triển AI có trách nhiệm.

Video Tutorial: OpenAI o3 và o4-mini – Bước tiến mới trong AI

OpenAI o3 là gì và nó khác biệt như thế nào?

OpenAI o3 đánh dấu một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo, Ra mắt vào ngày 16 tháng 4 năm 2025, o3 là một phần trong dòng mô hình lập luận chuyên sâu của OpenAI. Trong khi các mô hình ngôn ngữ truyền thống chủ yếu tập trung vào việc tạo ra văn bản tổng quát, dòng o-series lại đi theo một hướng khác biệt. Mục tiêu của nó là nâng cao khả năng lập luận, tạo nên sự khác biệt rõ rệt so với các mô hình GPT quen thuộc của OpenAI.

Sự phát triển từ o1 đến o3

OpenAI lần đầu tiên tiết lộ o1 (tên mã “Strawberry”) vào tháng 9 năm 2024. Công ty đã mở rộng quyền truy cập o1 cho nhiều người hơn vào ngày 5 tháng 12 năm 2024. Chỉ hai tuần sau, họ đã xem trước o3 trong sự kiện ’12 Ngày Shipmas’ của họ. Tiến độ nhanh chóng này cho thấy sự cống hiến kiên định của họ đối với khả năng lập luận tốt hơn.

Những cải tiến rất ấn tượng. O3 mắc ít hơn 20% lỗi lớn so với o1 khi xử lý các nhiệm vụ thực tế khó khăn. Nó thực sự tỏa sáng trong lập trình, tư vấn kinh doanh và sáng tạo ý tưởng. Nhìn vào các thước đo cụ thể, o3 đạt độ chính xác 69,1% trong bài kiểm tra lập trình Verified SWE-bench, vượt trội hơn phiên bản tiền nhiệm. Mô hình này cũng đạt điểm ấn tượng 87,7% trong bài kiểm tra GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.

Lý do OpenAI bỏ qua phiên bản o2

Bạn có thể nhận thấy không có mô hình OpenAI o2. Công ty đã nhảy thẳng từ o1 sang o3 vì vấn đề thương hiệu—”O2″ thuộc về một công ty viễn thông Anh do Telefonica UK điều hành. Sam Altman, CEO của OpenAI, nói rằng họ đã đưa ra lựa chọn này “vì sự tôn trọng” đối với Telefonica. Quyết định đặt tên này thực sự đã giúp OpenAI bằng cách làm cho mô hình có vẻ tiên tiến hơn.

Lập luận mô phỏng (Simulated reasoning) đối đầu với các mô hình ngôn ngữ lớn truyền thống

O3 hoạt động khác với các mô hình ngôn ngữ lớn truyền thống. GPT-4 và các mô hình tương tự xuất sắc trong các tác vụ ngôn ngữ chung và nhận dạng mẫu. Tuy nhiên, O3 sử dụng lập luận mô phỏng thay đổi toàn bộ cách tiếp cận xử lý thông tin của nó.

Lập luận mô phỏng này cho phép o3 dừng lại và suy nghĩ về quá trình tư duy nội tại của nó trước khi phản hồi—tương tự như cách con người suy nghĩ. Mô hình chia các vấn đề lớn thành các phần nhỏ hơn và khám phá các cách tiếp cận khác nhau. Nó kiểm tra lập luận của chính mình trước khi đưa ra câu trả lời. Cách tiếp cận này khác với các mô hình ngôn ngữ lớn thông thường chủ yếu sử dụng nhận dạng mẫu và dự đoán.

O3 suy nghĩ cẩn thận hơn về các thách thức phức tạp cần tư duy phân tích sâu sắc. Mô hình hoạt động tốt hơn trong toán học, lập trình và lập luận khoa học. Cách tiếp cận thận trọng này dẫn đến độ chính xác cao hơn trên các vấn đề khó, mặc dù mất nhiều thời gian hơn một chút để phản hồi.

OpenAI o3 and o3-mini—12 Days of OpenAI: Day 12

Hiểu về o3-mini và o4-mini

Sự phát triển của các mô hình lập luận của OpenAI dẫn đến các phiên bản hiệu quả được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Những mô hình “mini” này cung cấp khả năng ấn tượng trong khi giữ yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn.

o3-mini là gì?

OpenAI đã cho ra mắt o3-mini vào ngày 31 tháng 1 năm 2025, đánh dấu sự xuất hiện của mô hình lập luận nhỏ gọn đầu tiên của họ. Mô hình này đáp ứng các tính năng được nhà phát triển yêu cầu nhiều nhất, bao gồm khả năng gọi hàm, Structured Outputs, và developer messages. Là một giải pháp thay thế tiết kiệm chi phí cho mô hình o3 đầy đủ, o3-mini thể hiện xuất sắc trong các lĩnh vực STEM—đặc biệt mạnh mẽ trong khoa học, toán học và lập trình—đồng thời duy trì độ trễ thấp hơn.

Các chuyên gia thử nghiệm nhận thấy o3-mini tạo ra câu trả lời chính xác và rõ ràng hơn so với o1-mini, với 56% thời gian họ ưu tiên chọn phản hồi từ o3-mini. Mô hình này giảm 39% lỗi nghiêm trọng (major errors) khi xử lý các câu hỏi nền tảng khó so với o1-mini. Thời gian phản hồi cũng được cải thiện đáng kể, nhanh hơn 24% so với o1-mini, trung bình chỉ mất 7,7 giây so với 10,16 giây của phiên bản tiền nhiệm.

Giải thích về o3-mini-low, medium và high

Ba biến thể của o3-mini tồn tại dựa trên nỗ lực lập luận: thấp, trung bình và cao. Các nhà phát triển có thể tối ưu hóa cho các trường hợp sử dụng cụ thể—chọn quá trình suy nghĩ sâu hơn cho các vấn đề phức tạp hoặc ưu tiên tốc độ khi độ trễ quan trọng.

O3-mini phù hợp với hiệu suất của o1 trong các đánh giá lập luận và trí thông minh đầy thách thức với nỗ lực lập luận trung bình, bao gồm AIME và GPQA. Các tùy chọn lập luận cao cung cấp khả năng phân tích cải thiện với chi phí thời gian phản hồi hơi lâu hơn. Vì vậy, tất cả người dùng ChatGPT trả phí đều nhận được quyền truy cập vào cả o3-mini (sử dụng lập luận trung bình theo mặc định) và o3-mini-high trong bộ chọn mô hình.

Phiên bản 1 (Dịch sát nghĩa):

O4-mini là gì và nó so sánh với o3-mini như thế nào

OpenAI đã phát hành o4-mini cùng với o3 vào ngày 16 tháng 4 năm 2025, như một mô hình nhỏ hơn được tối ưu hóa cho lập luận nhanh và tiết kiệm chi phí. Mô hình nhỏ gọn này thể hiện hiệu suất đáng chú ý cho kích thước của nó và xuất sắc trong các nhiệm vụ toán học, lập trình và thị giác.

O4-mini vượt trội hơn o3-mini trong cả các nhiệm vụ STEM và phi STEM trong các đánh giá của chuyên gia, bao gồm các lĩnh vực khoa học dữ liệu. Phản hồi của người dùng cho thấy kết quả hỗn hợp—o4-mini cung cấp thông lượng cao hơn và giới hạn sử dụng cao hơn so với o3, nhưng một số người dùng báo cáo vấn đề với việc tạo mã và tính nhất quán so với o3-mini-high.

O4-mini có các biến thể lập luận tiêu chuẩn và cao, với phiên bản cao mất nhiều thời gian hơn để tạo ra câu trả lời có khả năng đáng tin cậy hơn.

Các khả năng chính của o3

O3 của OpenAI nổi bật so với các mô hình AI truyền thống với những khả năng đột phá. Mô hình học thông qua học tăng cường quy mô lớn và thể hiện kỹ năng đáng chú ý trên nhiều lĩnh vực. Điều này khiến nó trở thành một công cụ mạnh mẽ để giải quyết các vấn đề phức tạp.

Lập luận nâng cao và chuỗi suy nghĩ

OpenAI đã huấn luyện mô hình o3 để “suy nghĩ” trước khi đưa ra câu trả lời thông qua cái mà họ gọi là “chuỗi tư duy riêng tư”. Mô hình này lập kế hoạch trước và lập luận thông qua các nhiệm vụ bằng cách thực hiện các bước suy luận trung gian để giải quyết vấn đề. O3 có khả năng phân tích các thách thức phức tạp và cân nhắc nhiều phương pháp tiếp cận khác nhau. Nó tự đánh giá quá trình lập luận của mình trước khi đưa ra câu trả lời cuối cùng. Mặc dù quá trình này đòi hỏi nhiều sức mạnh tính toán hơn và mất nhiều thời gian hơn để phản hồi, nhưng kết quả đầu ra lại chính xác hơn đáng kể.

Visual reasoning: suy nghĩ bằng hình ảnh

Một trong những bước đột phá lớn nhất của o3 là biết cách lập luận với hình ảnh trực tiếp trong chuỗi suy nghĩ của nó. Mô hình không chỉ nhìn thấy hình ảnh – nó suy nghĩ với chúng. O3 làm việc với hình ảnh do người dùng tải lên bằng cách sử dụng các công cụ khác nhau. Nó cắt, phóng to, xoay và áp dụng các kỹ thuật xử lý khác. Điều này giúp o3 phân tích hình ảnh mờ, đảo ngược hoặc chất lượng thấp. Tính năng này chứng tỏ giá trị trong việc giải thích bảng trắng (whiteboards), sơ đồ sách giáo khoa hoặc phác thảo vẽ tay (hand-drawn sketches).

Sử dụng công cụ: duyệt web, lập trình, phân tích tệp

O3 kết hợp lập luận tiên tiến với các khả năng công cụ chi tiết. Bao gồm duyệt web, lập trình Python, phân tích hình ảnh, xử lý tệp và các tính năng bộ nhớ. Các công cụ không chỉ có sẵn – o3 biết chính xác khi nào và cách sử dụng chúng trong quá trình lập luận. Ví dụ, xem cách nó tìm kiếm dữ liệu tiện ích trên web, viết mã Python để dự báo và tạo biểu đồ giải thích – tất cả trong một tương tác.

Tự kiểm tra sự thật và tính năng bộ nhớ

O3 sử dụng sự sắp xếp có cân nhắc để lập luận về các chính sách an toàn khi nó phản hồi các lời nhắc có khả năng không an toàn. Tự kiểm tra sự thật tích hợp giúp phản hồi chính xác hơn. Mô hình cũng nhớ các chi tiết hữu ích giữa các cuộc trò chuyện. Điều này dẫn đến các phản hồi được tùy chỉnh và phù hợp.

Performance trong toán học, lập trình và khoa học

O3 cho thấy kết quả đặc biệt xuất sắc trong các lĩnh vực kỹ thuật:

  • Toán học: Độ chính xác 91,6% trên AIME 2024 (so với 74,3% của o1)
  • Lập trình: Độ chính xác 69,1% trên SWE-bench Verified (so với 48,9% của o1)
  • Khoa học: Độ chính xác 83,3% trên thước đo GPQA Diamond

Safety, access, and pricing

OpenAI đang dẫn đầu trong việc triển khai an toàn và có trách nhiệm các mô hình lập luận của mình. Tài liệu an toàn mới nhất của họ cho thấy cách o3 và o4-mini áp dụng nhiều lớp bảo vệ, vừa ngăn chặn việc sử dụng sai mục đích, vừa hỗ trợ các ứng dụng có ích.

Deliberative alignment: Phương pháp an toàn mới

OpenAI đã phát triển phương pháp sắp xếp có chủ đích – một kỹ thuật an toàn đột phá giúp các mô hình lập luận hiểu trực tiếp các thông số kỹ thuật an toàn do con người viết. Khác với các phương pháp cũ, nơi các mô hình học hành vi mong muốn từ các ví dụ được gắn nhãn, o3 giờ đây có thể suy ngẫm về các thông số này trước khi đưa ra câu trả lời.

Cách tiếp cận này giúp o3 vượt trội hơn GPT-4o trong việc đáp ứng các tiêu chuẩn an toàn nội bộ và bên ngoài. Nó giảm thiểu các kết quả có hại và tránh việc từ chối không cần thiết đối với nội dung an toàn. Đây là một bước tiến vượt bậc so với các phương pháp an toàn truyền thống chỉ dựa vào đào tạo từ các ví dụ.

Preparedness Framework v2

Khung Chuẩn bị phiên bản 2 của OpenAI giờ đây xem xét năm tiêu chí rủi ro: tính khả thi, khả năng đo lường, mức độ nghiêm trọng, tính mới hoàn toàn và liệu rủi ro xảy ra tức thì hay không thể khắc phục.

Khung này đặt ra hai ngưỡng rõ ràng – Khả năng cao và Khả năng quan trọng – kèm theo các cam kết hoạt động cụ thể. O3 và o4-mini đã trải qua đánh giá trong ba lĩnh vực: mối đe dọa sinh học/hóa học, an ninh mạng và khả năng tự cải thiện của AI. Cả hai mô hình đều duy trì dưới ngưỡng ‘Cao’ của khung trong mọi hạng mục.

Cách truy cập o3 và o4-mini thông qua ChatGPT

Người dùng ChatGPT Plus, Pro và Team có thể truy cập o3, o4-mini và o4-mini-high trực tiếp từ bộ chọn mô hình. Người dùng Enterprise và Edu được truy cập một tuần sau khi phát hành ban đầu. Mỗi cấp độ đăng ký có giới hạn khác nhau:

  • Plus, Team, Enterprise & Edu: 100 tin nhắn hàng tuần với o3, 300 tin nhắn hàng ngày với o4-mini và 100 tin nhắn hàng ngày với o4-mini-high
  • Pro: Truy cập gần như không giới hạn (tùy thuộc vào các biện pháp bảo vệ tự động)
  • Miễn phí: Truy cập giới hạn vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo

Giá API và giới hạn sử dụng

Các nhà phát triển có thể sử dụng o3 qua API với giá 254.148,34 VND cho mỗi triệu token đầu vào và 1.016.593,35 VND cho mỗi triệu token đầu ra. O4-mini có giá thấp hơn ở mức 27.956,32 VND cho mỗi triệu token đầu vào và 111.825,27 VND cho mỗi triệu token đầu ra. Người dùng cần xác minh tổ chức ở cấp độ 1-3 để truy cập o3, trong khi tất cả người dùng đã xác minh có thể sử dụng o4-mini. Cả hai mô hình đều hoạt động với cửa sổ ngữ cảnh 200k token và có thể xuất ra tối đa 100k token, điều này cung cấp nhiều không gian cho các tác vụ lập luận phức tạp.

Tìm hiểu về OpenAI o3: Khám phá mô hình AI tiên tiến nhất

Kết luận

OpenAI o3 đánh dấu một bước ngoặt quan trọng trong lịch sử phát triển AI, khi nó vượt xa khỏi việc đơn thuần so khớp mẫu để hướng tới khả năng lập luận đích thực. Những mô hình này hứa hẹn sẽ phát triển khả năng giải quyết vấn đề ngày càng tinh vi, đi kèm với các biện pháp an toàn được cải thiện. Dòng o chứng minh rằng tương lai của AI không nằm ở việc tạo ra các phản hồi đơn thuần, mà là ở khả năng lập luận thấu đáo trước những vấn đề phức tạp

Câu hỏi thường gặp

C1. Các tính năng chính của mô hình o3 của OpenAI là gì? OpenAI o3 là một mô hình AI tiên tiến sử dụng lập luận mô phỏng để xuất sắc trong các nhiệm vụ giải quyết vấn đề phức tạp. Nó có thể tạm dừng và suy ngẫm trước khi phản hồi, có khả năng lập luận trực quan và tích hợp các công cụ khác nhau như tìm kiếm web và lập trình Python. Mô hình cũng có các biện pháp an toàn nâng cao và cửa sổ ngữ cảnh khổng lồ 200.000 token.

C2. O3 so sánh như thế nào với các mô hình AI trước đây về mặt hiệu suất? O3 thể hiện những cải tiến đáng kể so với các phiên bản tiền nhiệm, mắc ít hơn 20% lỗi lớn trong các nhiệm vụ thực tế khó khăn. Nó đạt độ chính xác 91,6% trên AIME 2025, 69,1% độ chính xác trên điểm chuẩn lập trình SWE-bench Verified, và 87,7% trên điểm chuẩn GPQA Diamond cho các vấn đề khoa học cấp độ chuyên gia.

C3. O3-mini và o4-mini là gì, và chúng khác với mô hình o3 đầy đủ như thế nào? O3-mini và o4-mini là các phiên bản tinh gọn của mô hình o3, được thiết kế để tiết kiệm chi phí và ứng dụng chuyên biệt. Chúng cung cấp khả năng ấn tượng với yêu cầu tính toán thấp hơn và thời gian phản hồi nhanh hơn. O3-mini có các biến thể nỗ lực lập luận thấp, trung bình và cao, trong khi o4-mini được tối ưu hóa cho lập luận nhanh, tiết kiệm chi phí.

C4. Người dùng có thể truy cập các mô hình o3 và o4-mini như thế nào? Người dùng ChatGPT Plus, Pro, Team và Enterprise có thể truy cập o3, o4-mini và o4-mini-high thông qua bộ chọn mô hình. Giới hạn sử dụng thay đổi theo cấp độ đăng ký. Đối với các nhà phát triển, cả hai mô hình đều có sẵn thông qua API với cấu trúc giá khác nhau. Người dùng miễn phí có quyền truy cập hạn chế vào o4-mini bằng cách chọn ‘Think’ trong trình soạn thảo.

C5. Các biện pháp an toàn nào được triển khai trong mô hình o3? O3 kết hợp một phương pháp an toàn mới gọi là sắp xếp có cân nhắc, dạy mô hình lập luận rõ ràng về các thông số kỹ thuật an toàn. Nó cũng có khả năng tự kiểm tra sự thật và được đánh giá theo Khung Chuẩn bị v2 cập nhật của OpenAI, đánh giá rủi ro trên các tiêu chí khác nhau để đảm bảo triển khai AI có trách nhiệm.

Dieter R.

Continue Reading

Công nghệ

Khóa học AI tạo sinh 5 ngày: Livestream Ngày 1

Published

on

Chào bạn đến với khóa học AI tạo sinh 5 ngày độc đáo. Khóa học được tổ chức bởi Google trên nền tảng Kaggle. Đây là một cơ hội hiếm có để học hỏi trực tiếp từ các chuyên gia hàng đầu của Google. Đặc biệt là từ đội ngũ Google DeepMind.

Nội dung chính

Khóa Học AI Tạo Sinh 5 Ngày: Livestream Ngày 1

Paige Bailey sẽ thảo luận về các bài tập với các tác giả khóa học. Bên cạnh đó có những khách mời đặc biệt khác từ Google. Khách mời hôm nay bao gồm Warren Barkley, Logan Kilpatrick, Kieran Milan, Anant Nawalgaria, Irina Sigler và Mat Velloso.

Video có phụ đề tiếng Việt.

Video gốc (không có phụ đề tiếng Việt): https://www.youtube.com/live/WpIfAeCIFc0

Thông tin thêm

Đào Tạo Toàn Diện cho Hơn 140.000 Nhà Phát Triển

Khóa học Generative AI 5 ngày của Google không chỉ là một chuỗi bài giảng đơn thuần. Nó còn là một hành trình học tập toàn diện. Khóa học được thiết kế cẩn thận. Nhằm cung cấp kiến thức chuyên sâu về AI tạo sinh. Với số lượng hơn 140.000 nhà phát triển đã đăng ký tham gia. Đây là một trong những sự kiện quan trọng nhất từng được tổ chức cho các nhà phát triển.

Khóa học đã được thiết kế tinh tế. Kết hợp giữa lý thuyết, thực hành và tương tác cộng đồng. Nhằm giúp những người tham gia có được hiểu biết vững chắc về Gen AI. Từ cơ bản đến nâng cao.

Mỗi ngày trong khóa học đều tập trung vào một chủ đề cụ thể. Nhằm mang đến cho người học góc nhìn toàn diện về công nghệ AI tạo sinh.

  1. Ngày 1 khám phá về Các Mô hình Nền tảng và Kỹ thuật Prompt;
  2. Ngày 2 đi sâu vào Embeddings và Vector Stores/Databases;
  3. Ngày 3 tập trung vào Generative AI Agents;
  4. Ngày 4 nghiên cứu về Domain-Specific LLMs;
  5. và cuối cùng, Ngày 5 giới thiệu về MLOps cho AI tạo sinh.

Cách tiếp cận đa dạng này giúp người học có thể nắm bắt được cả lý thuyết nền tảng. Lẫn các ứng dụng thực tế của AI tạo sinh.

Trải Nghiệm Học Tập Toàn Diện Với Podcast AI, Phòng Thí Nghiệm Mã Và Tương Tác Trực Tiếp Cùng Chuyên Gia

Điểm đặc biệt của khóa học là các bài tập được thiết kế đa dạng, bao gồm podcast được tạo bởi AI (sử dụng NotebookLM), các bài báo trắng (white papers) thông tin do các chuyên gia Google viết, và các phòng thí nghiệm mã (code labs) để người học có thể trải nghiệm thực tế với Gemini API và các công cụ khác. Người học cũng có cơ hội tham gia vào các buổi phát trực tiếp với các khách mời chuyên gia từ Google, nơi họ có thể đặt câu hỏi và tương tác với những người tạo ra khóa học. Đây là cơ hội quý báu để đi sâu hơn vào các chủ đề chuyên đề và hiểu rõ hơn về ứng dụng của AI tạo sinh.

Ngoài ra, khóa học còn cung cấp một kênh Discord được hỗ trợ tích cực bởi các nhân viên Google, tạo ra một không gian cộng đồng sôi động để trao đổi kiến thức và chia sẻ trải nghiệm. Các phòng thí nghiệm mã trên Kaggle cho phép người tham gia thử nghiệm với các kỹ thuật và công cụ AI tạo sinh khác nhau, bao gồm Gemini API, Embeddings, công cụ mã nguồn mở như Langraph cũng như Vertex AI. Đối với những ai đã bỏ lỡ khóa học trực tiếp, một số nội dung phổ biến nhất đã được điều chỉnh thành định dạng tự học và có sẵn dưới dạng Kaggle Learn Guide, giúp mọi người vẫn có thể tiếp cận với kiến thức quý giá này

Danh sách tham khảo

[1] 5-Day Gen AI Intensive Course with Google Learn Guide – Kaggle
[2] Google and Kaggle launch five-day intensive Generative AI course
[3] Kaggle’s 5-Day Gen AI Intensive Course

Continue Reading

Công nghệ

AI Cách Mạng: Khởi Nghiệp Công Nghệ Tương Lai Ngay

Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.

Published

on

Khởi nghiệp AI đang định hình tương lai kinh doanh. Với sức mạnh công nghệ, startup AI giải phóng tiềm năng sáng tạo, tối ưu hóa quy trình và mở ra những cơ hội kinh doanh chưa từng có trong kỷ nguyên số.

DeepSeek đang tạo ra một bước ngoặt mới cho Thung lũng Silicon.

 Hầu như ngày nào, doanh nhân Grant Lee cũng được các nhà đầu tư thuyết phục xuống tiền. Một số người thậm chí còn gửi cho ông và những người đồng sáng lập khác nhiều giỏ quà đắt đỏ để lấy lòng. 

Ông Lee, 41 tuổi, trước đây đã giúp thành lập một công ty khởi nghiệp AI có tên Gamma.  Giống như nhiều startup trẻ khác ở Thung lũng Silicon, Gamma theo đuổi một chiến lược mới: sử dụng các công cụ trí tuệ nhân tạo để tăng năng suất của nhân viên, từ dịch vụ khách hàng, tiếp thị đến mã hóa và nghiên cứu.

Điều đó có nghĩa là Gamma không cần thêm tiền mặt nữa, ông Lee cho biết. Công ty của ông chỉ tuyển dụng 28 người cũng có thể tạo ra hàng chục triệu USD doanh thu định kỳ hàng năm với gần 50 triệu người dùng. Gamma cũng có lãi.

Ông Lee cho biết: “Nếu thuộc thế hệ trước, chúng tôi dễ dàng có tới 200 nhân viên. Chúng tôi có cơ hội để suy nghĩ lại về điều đó, về cơ bản là viết lại kịch bản”.

Mô hình Thung lũng Silicon cũ chỉ ra rằng các công ty khởi nghiệp nên huy động một khoản tiền lớn từ các nhà đầu tư mạo hiểm, sau đó chi tiền thuê một đội ngũ nhân viên để mở rộng quy mô. Trong khi đó, Gamma vẫn kiếm được tiền và phát triển nhanh chóng dù không cần vốn tài trợ hay số lượng lớn nhân viên.

Những câu chuyện thành công này đã thu hút sự chú ý của Thung lũng Silicon.  Anysphere, một công ty khởi nghiệp tạo ra phần mềm mã hóa Cursor, đạt doanh thu 100 triệu USD trong vòng chưa đầy hai năm với chỉ 20 nhân viên. ElevenLabs, một công ty A.I. công ty khởi nghiệp bằng giọng nói, cũng làm nên kỳ tích tương tự với khoảng 50 nhân sự.

Khả năng A.I. cho phép các công ty khởi nghiệp làm được nhiều việc hơn với ít nhân viên hơn đã dẫn đến những suy đoán hoang đường về tương lai.  Sam Altman, giám đốc điều hành của OpenAI, dự đoán rằng một ngày nào đó có thể có một công ty một người trị giá 1 tỷ USD.

Founder Lee markettimes.vn

Với các công cụ A.I., một số công ty khởi nghiệp hiện đang tuyên bố ngừng tuyển dụng ở một quy mô nhất định. Runway Financial, một công ty phần mềm tài chính, cho biết chỉ tuyển tối đa 100 nhân viên vì mỗi người sẽ tăng năng suất gấp rưỡi. Agency, startup sử dụng A.I. cho dịch vụ khách hàng, cũng có kế hoạch tuyển dụng không quá 100 nhân viên.

“Mục đích là loại bỏ những vai trò không cần thiết”, Elias Torres, người sáng lập Agency, cho biết.

Ý tưởng này được thúc đẩy bởi DeepSeek, công ty khởi nghiệp A.I. của Trung Quốc xây dựng các công cụ trí tuệ nhân tạo với chi phí chỉ bằng một phần nhỏ so với chi phí thông thường. Bước đột phá, được xây dựng trên các công cụ nguồn mở có sẵn miễn phí trực tuyến, đã tạo ra sự bùng nổ của các công ty xây dựng sản phẩm mới giá rẻ. 

“DeepSeek là một bước ngoặt”, Gaurav Jain, một nhà đầu tư tại công ty đầu tư mạo hiểm Afore Capital, đơn vị đã hỗ trợ Gamma, cho biết.  “Chi phí điện toán sẽ giảm rất, rất nhanh, rất nhanh”

Ông Jain so sánh các công ty khởi nghiệp A.I. mới với làn sóng cuối những năm 2000, sau khi Amazon bắt đầu cung cấp các dịch vụ điện toán đám mây giá rẻ. Điều đó đã làm giảm chi phí thành lập công ty, dẫn đến một loạt các công ty khởi nghiệp mới có thể được xây dựng với chi phí rẻ. 

Trước cơn sốt A.I. này, các công ty khởi nghiệp thường đốt 1 triệu USD để đạt được doanh thu 1 triệu USD. Bây giờ, để đạt được doanh thu 1 triệu USD, chi phí chỉ bằng 1/5 và cuối cùng có thể giảm xuống còn 1/10, theo phân tích của Afore đối với 200 công ty khởi nghiệp.

Ông Jain cho biết: “Lần này, chúng tôi đang tự động hóa con người chứ không chỉ tự động hóa các trung tâm dữ liệu”.

Tuy nhiên, nếu các công ty khởi nghiệp vẫn có thể có lãi mà không cần chi nhiều tiền, điều đó có thể trở thành vấn đề lớn đối với các nhà đầu tư mạo hiểm, những người phân bổ hàng chục tỷ USD để đầu tư vào các công ty khởi nghiệp A.I. Năm ngoái, các công ty A.I. đã huy động được 97 tỷ USD tiền tài trợ, chiếm 46% tổng số tiền đầu tư mạo hiểm tại Mỹ, theo PitchBook.

“Vốn đầu tư mạo hiểm chỉ hiệu quả nếu bạn rót tiền vào những người chiến thắng”, Terrence Rohan, một nhà đầu tư của Quỹ Otherwise, tập trung vào các công ty khởi nghiệp rất trẻ, cho biết.

“Nếu người chiến thắng trong tương lai cần ít tiền hơn, không biết dòng vốn đầu tư mạo hiểm sẽ ra sao?”.

Hiện tại, các nhà đầu tư vẫn tiếp tục đấu tranh để đầu tư vào các công ty đang phát triển mạnh nhất, nhiều công ty trong số đó không cần thêm tiền. Một số nhà đầu tư lạc quan rằng hiệu quả do A.I. thúc đẩy sẽ thôi thúc các doanh nhân thành lập nhiều công ty hơn, dẫn đến nhiều cơ hội đầu tư hơn. Họ hy vọng khi các công ty khởi nghiệp đạt đến một quy mô nhất định, họ sẽ áp dụng mô hình cũ là các nhóm lớn và tiền lớn.

Quay trở lại với Gamma.

Ông Lee cho biết ông đang có kế hoạch tăng gấp đôi lực lượng lao động trong năm nay lên 60, tuyển dụng cho bộ phận thiết kế, kỹ thuật và bán hàng.  Nhân sự phải có kiến ​​thức tổng quát có thể thực hiện nhiều nhiệm vụ thay vì một việc như trước đây. Theo ông Lee, mô hình hiệu quả với AI đã giúp giải phóng thời gian.  Bây giờ ông chỉ việc tập trung tư vấn khách hàng và cải thiện sản phẩm. 

“Đó thực sự là giấc mơ của mọi nhà sáng lập”, ông Lee nói.

Theo: Financial Times, WSJ

Hashtags: #StartupAI #CongNgheKhoiNghiep #KinhDoanhCongNghe #AIKhaiPha #StartupCongNghe

Nguồn: markettimes.vn / 21-Feb-2025 / https://markettimes.vn/deepseek-khoi-phat-ky-nguyen-startup-gia-re-chi-20-nhan-su-cung-tao-ra-hang-chuc-trieu-usd-cac-cong-ty-khong-con-khat-tien-mat-77486.html

Continue Reading

Trending