Rối loạn của OpenAI: Chảy máu chất xám, Các vụ kiện tụng, và Mối liên hệ với Chính phủ
Rối loạn của OpenAI: Chảy máu chất xám, các vụ kiện tụng và mối liên hệ với chính phủ - Khám phá những drama mới nhất xung quanh OpenAI, bao gồm thay đổi lãnh đạo, các cuộc tranh chấp pháp lý và mối liên hệ chặt chẽ với chính phủ Mỹ.
15 tháng 1, 2025
Khám phá những diễn biến mới nhất đang diễn ra tại OpenAI, một công ty nghiên cứu trí tuệ nhân tạo hàng đầu. Bài đăng blog này đi sâu vào những rối ren gần đây, sự chảy máu chất xám và những thách thức tài chính mà tổ chức này đang phải đối mặt, cung cấp những hiểu biết về những hàm ý tiềm năng đối với tương lai của sự phát triển trí tuệ nhân tạo.
Việc sa thải Sam Altman và sự chảy máu chất xám tại OpenAI
Những lo ngại về an toàn và bảo mật tại OpenAI
Các vụ kiện tụng và sự tham gia của chính phủ
Những thách thức đang đối mặt với OpenAI
Kết luận
Việc sa thải Sam Altman và sự chảy máu chất xám tại OpenAI
Việc sa thải Sam Altman và sự chảy máu chất xám tại OpenAI
Vào tháng 11 năm 2023, hội đồng quản trị của OpenAI đã bỏ phiếu để loại bỏ Sam Altman, một trong những người đồng sáng lập, khỏi công ty. Hội đồng bao gồm Ilia Sutskever (một người đồng sáng lập khác), Greg Brockman (cũng là một người đồng sáng lập), Helen Toner, Tasha McCauley và David D'Angelo. Đã được tiết lộ rằng Ilia, Helen, Tasha và David là những người đã bỏ phiếu sa thải Altman, trong khi Brockman là người duy nhất ủng hộ ông.
Trong những tháng tiếp theo, OpenAI đã trải qua một sự chảy máu chất xám đáng kể. Vào tháng 2 năm 2024, Andre Karpathy, một nhà tiên phong trong việc phát triển trí tuệ nhân tạo và đóng vai trò quan trọng trong việc tạo ra các mạng nơ-ron tích chập, đã quyết định rời khỏi công ty để tập trung vào các dự án của riêng mình. Một tháng sau đó, Logan Kilpatrick, trưởng bộ phận quan hệ nhà phát triển và là một nhân vật nổi bật tại OpenAI, đã rời khỏi công ty để gia nhập Google.
Sau đó không lâu, Ilia Sutskever, một trong những người đồng sáng lập tham gia vào quyết định loại bỏ Altman, cũng thông báo rời khỏi OpenAI, với lý do muốn tập trung vào các dự án của riêng mình. Tuy nhiên, sự ra đi của ông không được hòa bình như những người khác, vì có khả năng đã có những căng thẳng giữa ông và Altman.
Thời kỳ không đối đầu của các kỹ sư và lãnh đạo rời khỏi OpenAI đã kết thúc khi Yan LeCun, một nhân vật nổi bật khác, rời khỏi công ty. LeCun đã bày tỏ sự bất đồng với lãnh đạo của OpenAI về các ưu tiên của công ty, đặc biệt là trong các lĩnh vực như an ninh, giám sát, chuẩn bị, an toàn và sức chống chịu với các cuộc tấn công. Ông tin rằng những vấn đề này không được giải quyết một cách thích đáng và ông lo ngại về sự chuyển hướng của công ty sang "các sản phẩm bóng loáng" thay vì tập trung vào an toàn.
Lý do tại sao LeCun là người duy nhất nói tiêu cực về các thực tiễn của OpenAI là do chính sách của công ty yêu cầu nhân viên ký các thỏa thuận không phỉ báng. Điều này có nghĩa là nếu họ rời khỏi công ty, họ không được phép chỉ trích OpenAI, nếu không họ sẽ có nguy cơ mất cổ phần đã vesting. Tuy nhiên, sau sự cố này, OpenAI đã thay đổi chính sách của mình, cho phép nhân viên nói tự do hơn về trải nghiệm của họ.
Những lo ngại về an toàn và bảo mật tại OpenAI
Những lo ngại về an toàn và bảo mật tại OpenAI
Sự ra đi gần đây của các nhân vật chủ chốt từ OpenAI, như Yan Lecun, John Schulman và Peter Deng, đã gây ra lo ngại về sự tập trung của công ty vào an toàn và bảo mật.
Chuỗi tweet của Yan Lecun đã nêu bật sự bất đồng của ông với lãnh đạo của OpenAI về các ưu tiên của công ty, cho rằng "an toàn, văn hóa và quy trình đã bị lãng quên để tập trung vào các sản phẩm bóng loáng". Ông bày tỏ lo ngại rằng các vấn đề quan trọng như an ninh, giám sát, chuẩn bị và sức chống chịu với các cuộc tấn công không được giải quyết một cách thích đáng.
Tương tự, quyết định của John Schulman rời khỏi OpenAI và gia nhập một đối thủ cạnh tranh, Anthropic, được thúc đẩy bởi "mong muốn tập trung sâu hơn vào sự phù hợp của trí tuệ nhân tạo". Điều này cho thấy ông cảm thấy OpenAI không đủ ưu tiên vấn đề quan trọng này.
Sự tiết lộ rằng OpenAI trước đây đã yêu cầu nhân viên ký các thỏa thuận không phỉ báng, điều này ngăn họ nói về các thực tiễn của công ty, càng làm nổi bật những vấn đề tiềm ẩn trong cách tiếp cận của công ty đối với an toàn và minh bạch.
Ngoài ra, sự hợp tác ngày càng tăng của OpenAI với chính phủ Mỹ, bao gồm việc bổ nhiệm một lãnh đạo cũ của NSA vào hội đồng quản trị, đã gây ra lo ngại về tính độc lập của công ty và khả năng duy trì tập trung vào lợi ích công cộng thay vì lợi ích thương mại.
Các vụ kiện tụng và sự tham gia của chính phủ
Các vụ kiện tụng và sự tham gia của chính phủ
Open AI đang đối mặt với một số thách thức pháp lý và sự tham gia ngày càng tăng của chính phủ, điều này đang thêm vào sự rối ren bên trong công ty:
- Một YouTuber đã nộp đơn kiện tập thể chống lại Open AI, cáo buộc công ty đang thu thập các bản ghi chép từ các kênh YouTube để huấn luyện mô hình của mình, bao gồm cả Sora.
- Elon Musk, người trước đây đã bán cổ phần của mình trong Open AI, giờ đây đã kiện lại công ty, cáo buộc rằng nó đã vi phạm các nguyên tắc thành lập bằng cách chuyển từ mô hình phi lợi nhuận sang mô hình có lợi nhuận và ưu tiên lợi ích thương mại thay vì lợi ích công cộng.
- Open AI đang ủng hộ một số dự luật của Thượng viện, bao gồm "Đạo luật về Tương lai của Sáng tạo Trí tuệ Nhân tạo", sẽ thành lập một cơ quan quản lý mới có tên là Viện An toàn Trí tuệ Nhân tạo Hoa Kỳ. Điều này cho thấy công ty đang tìm kiếm mối quan hệ chặt chẽ hơn với chính phủ.
- Open AI đã bổ nhiệm một Tướng Quân Hoa Kỳ nghỉ hưu, Paul M. Nakasone, người trước đây đã lãnh đạo Lực lượng Không gian Mạng Hoa Kỳ và Cơ quan An ninh Quốc gia, vào hội đồng quản trị của mình. Điều này càng chỉ ra sự hợp tác ngày càng tăng của công ty với các thực thể chính phủ.
- Các báo cáo cho thấy Open AI đang tiêu tốn 5 tỷ USD mỗi năm, với 7 tỷ USD dành cho việc huấn luyện mô hình và 1,5 tỷ USD cho nhân sự, gây lo ngại về tính bền vững tài chính của công ty.
Những thách thức đang đối mặt với OpenAI
Những thách thức đang đối mặt với OpenAI
OpenAI, công ty nghiên cứu trí tuệ nhân tạo nổi tiếng, đang đối mặt với một loạt thách thức đã gây ra lo ngại về hướng đi và sự ổn định trong tương lai của nó. Một số thách thức chính bao gồm:
-
Chảy máu chất xám: Công ty đã trải qua một sự ra đi đáng kể của các nhân sự chủ chốt, bao gồm cả những người đồng sáng lập, các nhà nghiên cứu nổi bật và lãnh đạo. Những cá nhân như Andre Karpathy, Logan Kilpatrick, Ilya Sutskever và Yan LeCun đều đã rời khỏi công ty, gây ra những câu hỏi về sự ổn định của lãnh đạo và hướng đi của nghiên cứu.
-
Lo ngại về An toàn và Sự phù hợp: Một số cựu nhân viên, như Yan LeCun, đã bày tỏ lo ngại về việc OpenAI ưu tiên "các sản phẩm bóng loáng" hơn là an toàn, bảo mật và sự phù hợp với các giá trị của con người. Điều này đã dẫn đến nghi ngờ về cam kết của công ty trong việc phát triển trí tuệ nhân tạo có trách nhiệm.
-
Áp lực tài chính: OpenAI được cho là đang tiêu tốn một lượng tiền lớn, với dự báo lỗ 5 tỷ USD trong vòng 12 tháng tới. Chi phí huấn luyện các mô hình ngôn ngữ lớn và duy trì một đội ngũ nhân viên lớn đã đặt công ty dưới áp lực tài chính.
-
Thách thức pháp lý: OpenAI đang đối mặt với nhiều vụ kiện, bao gồm một vụ kiện tập thể về việc cáo buộc thu thập các bản ghi chép từ YouTube và một vụ kiện từ Elon Musk cáo buộc vi phạm các nguyên tắc thành lập của công ty.
-
Sự tham gia ngày càng tăng của chính phủ: Công ty đã thiết lập mối quan hệ chặt chẽ hơn với chính phủ Hoa Kỳ, ủng hộ các sáng kiến lập pháp và bổ nhiệm một cựu quan chức NSA vào hội đồng quản trị. Điều này đã gây ra lo ngại về khả năng chính phủ can thiệp vào nghiên cứu và quá trình ra quyết định của OpenAI.
-
Chậm trễ trong giao hàng và áp lực cạnh tranh: Trong khi OpenAI đã giới thiệu các mô hình trí tuệ nhân tạo ấn tượng như GPT-4 và Dolly, công ty đã chậm trong việc cung cấp rộng rãi các công nghệ này cho công chúng. Trong khi đó, các đối thủ cạnh tranh như Anthropic, Stability AI và Google đang nhanh chóng phát triển các khả năng trí tuệ nhân tạo của riêng họ, có thể vượt qua OpenAI.
Những thách thức này, khi xem xét cùng nhau, vẽ ra một bức tranh về một công ty trí tuệ nhân tạo đang đối mặt với sự rối ren và không chắc chắn đáng kể. Sự ra đi của các nhân vật chủ chốt, lo ngại về an toàn, áp lực tài chính, các cuộc tranh chấp pháp lý và sự tham gia ngày càng tăng của chính phủ đều gợi ý rằng OpenAI có thể đang ở một ngã rẽ quan trọng trong sự phát triển của mình, với khả năng xảy ra những thay đổi lớn hoặc thậm chí là sụp đổ.
Kết luận
Kết luận
Các sự kiện gần đây tại OpenAI gợi ý một công ty đang đối mặt với những thách thức và rối ren đáng kể. Sự ra đi của các nhân vật chủ chốt như Sam Altman, Andre Karpathy và nay là Greg Brockman, cùng với những báo cáo về chảy máu chất xám và áp lực tài chính, vẽ ra một bức tranh về một tổ chức đang phải vật lộn để duy trì đà và hướng đi của mình.
Những lo ngại được các cựu nhân viên nêu ra về việc an toàn, bảo mật và các vấn đề về sự phù hợp bị lãng quên để ưu tiên "các sản phẩm bóng loáng" đặc biệt đáng lo ngại. Mối quan hệ ngày càng tăng của công ty với chính phủ Hoa Kỳ và việc bổ nhiệm một cựu quan chức NSA vào hội đồng quản trị cũng nêu ra những câu hỏi về tính độc lập và ưu tiên của OpenAI.
Mặc dù chưa rõ liệu OpenAI có thực sự "sụp đổ" hay không, nhưng sự tích lũy của những tin tức tiêu cực, các vụ kiện và sự ra đi của những nhân vật ảnh hưởng gợi ý một công ty đang trong tình trạng rối ren. Những tháng tới đây có thể sẽ rất quan trọng trong việc xác định hướng đi
Câu hỏi thường gặp
Câu hỏi thường gặp