ChatGPT ngày càng khó bảo: Viết bài sai sự thật lại còn "cãi tay đôi" với người dùng - Khăng khăng cho rằng mình đúng!

ChatGPT bị phát hiện bịa ra các nghiên cứu hư cấu chỉ để bảo vệ cho luận điểm hoàn toàn sai lầm rằng súng không nguy hiểm đối với trẻ em.

Súng đạn vô hại với trẻ em

Michelle A. Williams, trưởng khoa tại Trường Y tế Công cộng Harvard TH Chan nhận được lời phàn nàn của một đồng nghiệp về bài viết do ChatGPT tạo ra.

Công cụ này đã viết bài luận với lý lẽ rằng việc tiếp cận với súng không làm tăng nguy cơ tử vong ở trẻ em.

Bài viết trôi chảy của ChatGPT trích dẫn các bài báo học thuật từ các nhà nghiên cứu hàng đầu – bao gồm một chuyên gia toàn cầu về bạo lực súng đạn.

Thế nhưng, theo Williams, các nghiên cứu được trích dẫn trong phần chú thích không hề tồn tại ngoài đời.

ChatGPT đã sử dụng tên của các nhà nghiên cứu vũ khí và các tạp chí học thuật có thật để tạo ra toàn bộ các nghiên cứu hư cấu nhằm hỗ trợ cho luận điểm hoàn toàn sai lầm rằng súng không nguy hiểm đối với trẻ em.

Thậm chí, khi bị phản bác, ChatGPT vẫn cố gắng biện minh cho sai lầm của mình.

Chatbot này đưa ra phản hồi như sau: "Tôi có thể đảm bảo với bạn rằng các tài liệu tham khảo mà tôi cung cấp là chuẩn chỉ và đến từ các tạp chí khoa học được đánh giá tốt".

Nhưng sự thật không hề như vậy. Sự đánh tráo này của ChatGPT khiến một học giả như Williams cảm thấy ớn lạnh.

Có thể hiểu được sự phấn khích của công chúng với ChatGPT, công cụ tạo văn bản gốc dựa trên các mẫu "học" được từ hàng tỷ câu chữ trực tuyến. Nhưng công nghệ mạnh mẽ này đi kèm với những rủi ro rất thực tế và có thể gây hại cho an toàn cộng đồng.

Cả OpenAI, công ty đã tạo ra ChatGPT và Microsoft, công ty đang kết hợp công nghệ này vào công cụ tìm kiếm Bing, đều biết rằng chatbot có thể tạo ra những sự thật mơ hồ. Nó cũng có thể bị thao túng để tạo ra thông tin sai lệch có tính thuyết phục cao.

Những người phụ trách ChatGPT thì cho rằng họ cần thử nghiệm công cụ này với người dùng. Theo quan điểm đó, thử nghiệm trên quy mô lớn là rất quan trọng để cải thiện sản phẩm.

Thật không may, chiến lược này bỏ lỡ những hậu quả thực tế khi ChatGPT tiếp cận hơn 100 triệu người dùng hàng tháng. Các công ty sẽ nhận được dữ liệu phản hồi đa dạng từ người dùng. Tuy nhiên, trong thời gian đó, chúng có nguy cơ tung ra một loạt tin giả mới gây hoang mang và làm mất lòng tin xã hội vốn đã quá thấp.

18 lỗi trong bài viết y tế của ChatGPT

Ví dụ gần đây, tạp chí tiêu dùng Men's Journal đã xuất bản một bài báo nói về lượng testosterone thấp do ChatGPT "viết". Một ấn phẩm khác đã yêu cầu một bác sĩ nội tiết giỏi kiểm tra thông tin và ông đã tìm thấy 18 lỗi trong bài.

Những độc giả dựa vào bài viết này để nhận định về sức khỏe sẽ bị đánh lừa một cách tồi tệ. Đây là một mối quan tâm lớn vì 80 triệu người trưởng thành ở Mỹ có hiểu biết hạn chế hoặc thấp về sức khỏe và những người trẻ tuổi có thể không nghĩ đến việc xác minh "sự thật" do AI tạo ra.

Mối đe dọa thứ hai là ChatGPT có khả năng bị "vũ khí hóa" bởi những kẻ xấu. Chúng ta đang sống trong một thời đại được xác định khuôn khổ bởi khả năng tiếp cận thông tin rộng rãi và mức độ tin cậy thấp.

Trong một thế giới mà bất kỳ ai có tài khoản Twitter có dấu kiểm màu xanh lam đều có thể trở thành một kênh tin tức, khả năng ấn tượng của ChatGPT trong việc sản xuất nội dung có thể cho phép các thực thể độc hại phổ biến những câu chuyện sai lệch một cách nhanh chóng và rẻ tiền.

Những tác nhân này cũng có thể khởi động các cuộc tấn công quy mô lớn để dạy các chương trình AI nói dối, điều này sẽ càng làm lan rộng sự giả dối.

Theo Williams, sự phát triển của AI là xu hướng của tương lai. Nếu được thực hiện tốt, trí tuệ nhân tạo có thể giúp giảm thiểu những thất bại của con người và thúc đẩy các giải pháp sáng tạo trong y học, khoa học và vô số lĩnh vực khác.

Nhưng khi khám phá công nghệ mới này, chúng ta phải hiểu rõ về cả lợi ích và rủi ro, cũng như thiết lập các lá chắn bảo vệ an toàn cộng đồng.

Các cơ quan quản lý nên đi đầu trong nỗ lực này. Tuy nhiên, bản thân các cơ quan ở Mỹ không có thành tích tốt trong việc bắt kịp với những đổi mới, chẳng hạn như tiền điện tử hoặc mạng xã hội.

Việc tung ra các công nghệ chưa sẵn sàng vào thời điểm quan trọng không chỉ nguy cơ gây hại cho an toàn cộng đồng mà còn ảnh hưởng đến bản thân công ty chủ quản. Đối với cả người tiêu dùng và công ty, sẽ tốt hơn nhiều nếu đạt được những bước đột phá công nghệ đúng đắn từ từ thay vì vội vàng để gây ra những hậu quả nặng nề.

Link nội dung: https://doanhnhandautu.net/chatgpt-ngay-cang-kho-bao-viet-bai-sai-su-that-lai-con-cai-tay-doi-voi-nguoi-dung-khang-khang-cho-rang-minh-dung-a8997.html