Mô hình 'siêu trí tuệ' đằng sau lùm xùm của OpenAI

Admin
Dự án theo đuổi siêu trí tuệ nhân tạo với cái tên bí ẩn "Q*" được cho là nguyên nhân sâu xa đằng sau những căng thẳng nội bộ của OpenAI.

Theo các nguồn tin của Tech.co , trong khi lùm xùm CEO Sam Altman bị sa thải rồi lại quay về OpenAI diễn ra, một trong những tin đồn dấy lên về lá thư do các nhà nghiên cứu của công ty gửi đến ban điều hành, bày tỏ lo ngại về mô hình siêu trí tuệ AI đang được phát triển có khả năng gây ra mối đe dọa cho nhân loại.

Mô hình 'siêu trí tuệ' đằng sau lùm xùm của OpenAI - Ảnh 1.

(Ảnh minh họa)

Dự án Q*

Mô hình được gọi nội bộ là Dự án Q* (phát âm là Q-star), được cho là có thể đại diện cho một bước đột phá lớn trong mục tiêu theo đuổi trí tuệ nhân tạo tổng hợp (AGI) của OpenAI – một nhánh siêu trí tuệ có tính tự trị cao, có khả năng học tập tích lũy và vượt trội hơn con người trong hầu hết các nhiệm vụ.

Theo những người thân cận với nguồn tin, Q* có thể đánh dấu một bước nhảy vọt lớn trong lĩnh vực trí tuệ nhân tạo bằng cách cải thiện triệt để khả năng suy luận của AI và đưa OpenAI đến gần hơn với bước đột phá lớn trong sự phát triển của AGI.

Không giống như các mô hình AI hiện tại, tập trung vào khả năng tạo ra phản hồi dựa trên thông tin đã học từ trước, AGI là một hệ thống tự trị có thể áp dụng "lý trí" vào các quyết định, mang lại cho nó khả năng giải quyết vấn đề ở cấp độ con người.

Dù AGI chưa được hiện thực hóa đầy đủ, nhiều chuyên gia tin rằng công nghệ này cũng sẽ có khả năng học tập tích lũy, một đặc điểm khác giúp con người có khả năng tự cải thiện năng lực.

Một số nguồn tin cho rằng Q* - dự án của OpenAI đã có thể chứng minh những thuộc tính nêu trên khi giải các bài toán. Không chỉ thế, nhờ sức mạnh tính toán khổng lồ của mô hình, Q* đã có thể vượt trội hơn học sinh tiểu học, thể hiện kỹ năng suy luận và khả năng nhận thức đáng kể so với các chức năng của công nghệ AI hiện tại.

Không rõ Q* đã được phát triển trong bao lâu và những ứng dụng của nó có thể là gì, nhưng OpenAI đã thông báo cho các nhân viên và thành viên hội đồng quản trị về dự án trước khi sự cố lùm xùm nhân sự xảy ra.

Những quan ngại về đạo đức

Trong khi Giám đốc điều hành của OpenAI, Sam Altman cảm thấy tự tin rằng công nghệ AGI sẽ thúc đẩy sự đổi mới, một số nhà nghiên cứu đã nhanh chóng chỉ ra những mối nguy hiểm tiềm ẩn của dự án.

Trong thư gửi cho ban điều hành, các nhà nghiên cứu cảnh báo về mối nguy hiểm tiềm tàng của thuật toán mạnh mẽ này đối với nhân loại. Những lo ngại cụ thể về đạo đức AI được ghi trong bức thư không được tiết lộ, nhưng những cảnh báo đủ để trở thành nguyên nhân hội đồng quản trị đưa ra quyết định sa thải Altman.

Trong khi đó, lý do ban đầu được đưa ra khi sa thải Altman là vì CEO “giao tiếp kém”. Không lâu sau, ông đã tìm được một vị trí mới tại Microsoft. Hành động này đã khiến 700 trong số 770 nhân viên của OpenAI đe dọa sẽ làm điều tương tự nếu CEO không được phục chức.

Với việc công ty có nguy cơ sụp đổ, hội đồng quản trị của OpenAI buộc phải bổ nhiệm lại Altman vào vị trí cao nhất – điều này cũng dẫn đến một cuộc đại tu lớn trong ban điều hành của công ty và làm nổi bật sự chia rẽ sâu sắc trong dàn lãnh đạo.

Giờ đây, khi Altman trở lại vị trí và Dự án Q* có khả năng tiếp tục được bật đèn xanh, điều này lại đặt ra những câu hỏi mới.

Dự án Q* thực tế đến mức nào?

Mặc dù những ngày hỗn loạn ở OpenAI khiến khái niệm AGI được chú ý, nhưng đây không phải là lần đầu tiên Altman nhắc đến công nghệ này.

Hồi tháng 9, doanh nhân thung lũng Silicon này đã rơi vào tình thế khó khăn sau khi so sánh AGI với “một con người ở mức trung bình mà bạn có thể thuê làm đồng nghiệp”. Ông tiếp tục khẳng định những nhận xét mà mình đã đưa ra vào năm ngoái về cách AI này có thể “làm bất cứ điều gì mà bạn có thể khi có một đồng nghiệp làm việc từ xa”, bao gồm cả việc học cách trở thành bác sĩ và một lập trình viên giỏi.

Mặc dù việc so sánh AGI với trí thông minh của một "con người trung bình" không phải là điều gì mới mẻ, nhưng việc Altman sử dụng cụm từ này bị các nhà đạo đức về AI và giáo sư tại Đại học Cambridge Henry Shevlin coi là "ghê tởm", khi mối lo ngại xung quanh tác động của AI đối với an ninh việc làm ngày càng leo thang.

Những đột phá tiềm năng đối với AGI cũng đang gióng lên hồi chuông cảnh báo cho các nhà nghiên cứu khác - về việc công nghệ này đang được phát triển nhanh hơn tốc độ mà con người có thể nhận thức đầy đủ về mức tác động của nó.

OpenAI tin rằng những kết quả tích cực của AGI khiến cho "bãi mìn" rủi ro trở nên đáng để thử. Tuy nhiên, khi công ty tiếp tục đẩy mạnh hướng phát triển này, nhiều người lo ngại Altman đang ưu tiên thành công thương mại hơn lợi ích của người dùng và xã hội.

Nguồn: Tech.co, The Guardian