OpenAI lo ngại về "tình yêu" với AI

Trong một báo cáo mới đây, OpenAI lo ngại người dùng gắn bó với ChatGPT từ đó dẫn đến khả năng "lệ thuộc" vào giọng nói y như người thật của công cụ này.

CNN trích dẫn báo cáo mới được công bố của OpenAI về đánh giá an toàn với công cụ ChatGPT.

Theo báo cáo, giọng nói của ChatGPT hiện nghe rất giống thật. Giọng nói này phản hồi theo thời gian thực, có thể điều chỉnh khi bị ngắt lời, tạo ra những loại tiếng động mà con người hay tạo ra trong các cuộc trò chuyện như cười hoặc "hmm". Nó cũng có thể đánh giá trạng thái cảm xúc của người nói dựa trên giọng điệu của họ.

Vài phút sau khi OpenAI công bố tính năng giọng nói này tại một sự kiện vào đầu năm nay, nó đã được so sánh tình huống trong bộ phim "Her" phát hành năm 2013. Trong phim nhân vật chính đã phải lòng vì một giọng nói AI để rồi đau khổ khi "cô ấy" (giọng nói AI) thừa nhận cũng có mối quan hệ với hàng trăm người dùng khác.

Những gì báo cáo viết cho thấy, OpenAI dường như lo ngại rằng câu chuyện hư cấu này đang quá gần với thực tế, sau khi quan sát thấy nhiều người dùng nói chuyện với ChatGPT bằng ngôn ngữ "thể hiện mối liên kết chung" với công cụ này.

Cuối cùng, "người dùng có thể hình thành mối quan hệ xã hội với AI, giảm nhu cầu tương tác với người thực. Điều này có khả năng mang lại lợi ích cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh", báo cáo nêu rõ.

Báo cáo cũng nói thêm rằng việc nghe thông tin từ một chatbot có giọng nói giống như con người có thể khiến người dùng tin tưởng công cụ này nhiều hơn mức họ nên làm. Điều này có rủi ro cao vì AI có xu hướng làm sai.

Báo cáo nhấn mạnh một rủi ro lớn khác liên quan đến trí tuệ nhân tạo: các công ty công nghệ đang chạy đua để nhanh chóng triển khai các công cụ AI mà họ cho rằng có thể đảo lộn cách con người sống, làm việc, giao lưu và tìm kiếm thông tin.

OpenAI lo ngại về

CEO của ChatGPT, Sam Altman cam kết xây dựng AI "một cách an toàn" nhưng nhiều chuyên gia công nghệ đang bày tỏ những lo ngại xung quanh các công cụ như ChatGPT

Tuy nhiên, thực tế các Big Tech đang làm như vậy trước khi bất kỳ ai thực sự hiểu chuyện gì rồi sẽ xảy ra. Cũng giống như nhiều tiến bộ công nghệ khác, các công ty thường hình dung về cách các công cụ của họ được sử dụng như thế nào. Tuy nhiên, thực tế, hình dung đó thường khác xa vì người dùng là vô cùng đa dạng và thông thường nó hay đi với những hậu quả không mong muốn.

Một số người đã hình thành "mối quan hệ lãng mạn" với các chatbot AI. Điều này khiến các chuyên gia lo ngại.

"Các công ty phải có trách nhiệm lớn trong việc điều hướng câu chuyện theo cách có đạo đức và có trách nhiệm. Hiện tại tất cả vẫn đang trong giai đoạn thử nghiệm", Liesel Sharabi, Giáo sư Đại học Tiểu bang Arizona chuyên nghiên cứu về công nghệ và giao tiếp giữa con người, trả lời kênh CNN.

"Tôi lo lắng về những người đang hình thành mối liên hệ thực sự sâu sắc với một công nghệ có thể không tồn tại lâu dài và liên tục phát triển", bà nói thêm.

OpenAI cho biết tương tác của người dùng với ChatGPT theo thời gian, có thể ảnh hưởng đến những gì được coi là bình thường trong các tương tác xã hội.

"Các mô hình của chúng tôi mang tính tôn trọng, cho phép người dùng ngắt lời và "cầm mic" bất cứ lúc nào, mặc dù điều này được mong đợi ở một AI, nhưng sẽ trái với chuẩn mực trong các tương tác của con người", công ty cho biết trong báo cáo.

Hiện tại, OpenAI cho biết họ cam kết xây dựng AI "một cách an toàn" và có kế hoạch tiếp tục nghiên cứu khả năng "phụ thuộc về mặt cảm xúc" của người dùng vào các công cụ của mình.

Link nội dung: https://doanhnhandautu.net/openai-lo-ngai-ve-tinh-yeu-voi-ai-a55875.html