Người tố giác OpenAI được phát hiện đã chết, có vẻ do tự sát

bởi

trong
  • Theo các báo cáo, Suchir Balaji, một cựu nhà nghiên cứu của OpenAI, được phát hiện đã chết vào ngày 26 tháng 11 trong căn hộ của anh ấy.
  • Balaji, 26 tuổi, là một nhà nghiên cứu tại OpenAI trong bốn năm và đã rời công ty vào tháng Tám.
  • Anh ấy đã cáo buộc công ty của mình vi phạm luật bản quyền với mô hình ChatGPT rất phổ biến của họ.
Suchir Balaji, 26 tuổi, là một nhà nghiên cứu tại OpenAI trong bốn năm. Anh ấy đã rời công ty vào tháng Tám và cáo buộc công ty của mình vi phạm luật bản quyền. Joan Cros/NurPhoto via Getty Images

Theo nhiều báo cáo, Suchir Balaji, một cựu nhà nghiên cứu của OpenAI trong bốn năm, được phát hiện đã chết trong căn hộ của anh ấy ở San Francisco vào ngày 26 tháng 11. Anh ấy 26 tuổi.

Gần đây, Balaji đã chỉ trích OpenAI về cách công ty khởi nghiệp này thu thập dữ liệu từ internet để huấn luyện các mô hình AI của họ. Một trong những công việc của anh ấy tại OpenAI là thu thập thông tin để phát triển mô hình AI GPT-4 mạnh mẽ của công ty.

Một người phát ngôn của Sở Cảnh sát San Francisco đã nói với Business Insider rằng ‘không tìm thấy bằng chứng về hành vi phạm tội trong cuộc điều tra ban đầu.’

David Serrano Sewell, giám đốc điều hành văn phòng giám định y tế trưởng của thành phố, đã nói với San Jose Mercury News rằng, ‘cách thức tử vong đã được xác định là tự sát.’ Một người phát ngôn của văn phòng giám định y tế thành phố không phản hồi ngay lập tức yêu cầu bình luận từ BI.

‘Chúng tôi vô cùng đau buồn khi biết tin cực kỳ buồn này hôm nay và chúng tôi gửi lời chia buồn sâu sắc đến những người thân yêu của Suchir trong thời điểm khó khăn này,’ một người phát ngôn của OpenAI đã nói trong một tuyên bố gửi đến BI.

Vào tháng 10, Balaji đã công bố một bài luận trên trang web cá nhân của mình, đặt ra những câu hỏi về những gì được coi là ‘sử dụng hợp lý’ và liệu nó có thể áp dụng cho dữ liệu huấn luyện mà OpenAI đã sử dụng cho mô hình ChatGPT rất phổ biến của họ hay không.

‘Mặc dù các mô hình tạo sinh hiếm khi tạo ra kết quả tương tự đáng kể với bất kỳ dữ liệu đầu vào huấn luyện nào của chúng, quá trình huấn luyện một mô hình tạo sinh liên quan đến việc tạo bản sao của dữ liệu có bản quyền,’ Balaji viết. ‘Nếu những bản sao này không được phép, điều này có thể bị coi là vi phạm bản quyền, tùy thuộc vào việc sử dụng cụ thể của mô hình có đủ điều kiện là ‘sử dụng hợp lý’ hay không. Bởi vì sử dụng hợp lý được xác định trên cơ sở từng trường hợp cụ thể, không thể đưa ra tuyên bố chung về việc khi nào AI tạo sinh đủ điều kiện để được coi là sử dụng hợp lý.’

Trong bài luận cá nhân của mình, Balaji nói rằng việc huấn luyện các mô hình AI với một lượng lớn dữ liệu được sao chép miễn phí từ internet có thể gây tổn hại cho các cộng đồng kiến thức trực tuyến.

Anh ấy đã trích dẫn một bài nghiên cứu mô tả ví dụ về Stack Overflow, một trang web hỏi đáp về lập trình đã chứng kiến sự sụt giảm lớn về lưu lượng truy cập và sự tương tác của người dùng sau khi ChatGPT và các mô hình AI như GPT-4 ra đời.

Các mô hình ngôn ngữ lớn và chatbot trả lời trực tiếp câu hỏi của người dùng, vì vậy hiện nay người ta ít cần phải tìm đến các nguồn gốc ban đầu để tìm câu trả lời.

Trong trường hợp của Stack Overflow, chatbot và các mô hình ngôn ngữ lớn đang trả lời các câu hỏi về lập trình, do đó ít người ghé thăm Stack Overflow để hỏi cộng đồng giúp đỡ. Điều này có nghĩa là trang web về lập trình tạo ra ít nội dung mới từ con người hơn.

Elon Musk đã cảnh báo về điều này, gọi hiện tượng này là ‘Cái chết bởi Mô hình Ngôn ngữ Lớn (Death by LLM).’

“OpenAI đang đối mặt với nhiều vụ kiện cáo buộc công ty vi phạm bản quyền.

The New York Times đã kiện OpenAI vào năm ngoái, cáo buộc công ty khởi nghiệp này và Microsoft ‘sử dụng bất hợp pháp tác phẩm của The Times để tạo ra các sản phẩm trí tuệ nhân tạo cạnh tranh với nó.’

Trong một cuộc phỏng vấn với Times được công bố vào tháng 10, Balaji nói rằng các chatbot như ChatGPT đang tước đi giá trị thương mại của công việc và dịch vụ của mọi người.

‘Đây không phải là một mô hình bền vững cho hệ sinh thái internet nói chung,’ anh ấy nói với tờ báo.

Trong một tuyên bố gửi đến Times về những cáo buộc của Balaji, OpenAI đã nói: ‘Chúng tôi xây dựng các mô hình AI của mình bằng cách sử dụng dữ liệu công khai, theo cách được bảo vệ bởi nguyên tắc sử dụng hợp lý và các nguyên tắc liên quan, và được hỗ trợ bởi các tiền lệ pháp lý lâu đời và được chấp nhận rộng rãi. Chúng tôi xem nguyên tắc này là công bằng đối với người sáng tạo, cần thiết cho các nhà đổi mới, và quan trọng đối với khả năng cạnh tranh của Hoa Kỳ.’

Sau đó, Balaji được nêu tên trong vụ kiện của Times chống lại OpenAI với tư cách là một ‘người giám sát’ hoặc một cá nhân nắm giữ các tài liệu liên quan đến vụ án, theo một bức thư được nộp vào ngày 18 tháng 11 mà BI đã xem xét.

Tác giả: Lloyd LeeAlistair Barr,

Link bài gốc: 
OpenAI whistleblower found dead by apparent suicide | Bài được đăng vào Ngày 14 tháng 12 năm 2024 | www.bvp.com

Dịch giả: Dieter R – KenkAI Nhiều thứ hay

(*) Bản quyền bản dịch thuộc về Dieter R. Tuy nhiên, nội dung bài viết không phải do tôi tạo ra. Mọi khiếu nại về bản quyền (nếu có) xin vui lòng gửi email đến địa chỉ purchasevn@getkenka.com. Xin chân thành cảm ơn.

(**) Follow KenkAI Nhiều thứ hay để đọc các bài dịch khác và cập nhật thông tin bổ ích hằng ngày.


Bình luận

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *