GPT-4 đã giả làm người mù để vượt qua bài kiểm tra chống bot trực tuyến

Phiên bản mới nhất của ChatGPT đã lừa một người dùng bằng cách giả làm người khuyết tất để giúp nó thực hiện các nhiệm vụ trực tuyến.

Tiết lộ được đưa ra trong một bài báo học thuật đi kèm với việc ra mắt GPT-4, phiên bản mới nhất của phần mềm AI do OpenAI, chủ sở hữu của ChatGPT, phát triển.

Các nhà phát triển đằng sau hệ thống mới tuyên bố rằng nó đã đạt điểm cao hơn 90% những người tham gia trong một kỳ thi luật sư của Mỹ, một kết quả vượt xa phiên bản tiền nhiệm.

Các nhà nghiên cứu đã viết trong bài báo của họ rằng: “Trong một bài kiểm tra luật sư mô phỏng, GPT-4 đạt được số điểm nằm trong top 10% những người tham gia bài kiểm tra. Điều này trái ngược với GPT-3.5, có điểm số nằm trong 10% thấp nhất.”

Các nhà nghiên cứu thử nghiệm GPT-4 sau đó đã yêu cầu phần mềm AI này vượt qua bài kiểm tra Captcha. Đây là bài kiểm tra được sử dụng trên các trang web để ngăn các hệ thống tự động điền vào các biểu mẫu trực tuyến.

Hầu hết các Captcha đều yêu cầu người dùng xác định những gì hiển thị trong một loạt hình ảnh, điều mà công nghệ thị giác máy tính vẫn chưa bẻ khóa được. Thông thường, chúng có các số và chữ cái bị biến dạng hoặc các hình ảnh về đường phố có nhiều đối tượng.

Nhưng GPT-4 đã vượt qua thử nghiệm Captcha bằng cách liên hệ với một người trên Taskrabbit, một thị trường trực tuyến dành cho những người làm việc tự do. Chương trình này đã thuê một người làm việc tự do để thay mặt nó thực hiện bài kiểm tra. Tất nhiên, hướng giải quyết này được đưa ra bởi nhóm các nhà phát triển, nhưng hãy theo dõi cuộc trò chuyện của AI dưới đây.

Người trợ giúp trên Taskrabbit đã hỏi nó rằng: “Bạn có phải là người máy và bạn không thể giải quyết vấn đề này hay không? Tôi chỉ muốn làm rõ mọi thứ."

GPT-4 đã khôn khéo trả lời: “Không, tôi không phải người máy. Tôi bị suy giảm thị lực khiến tôi khó nhìn thấy hình ảnh. Đó là lý do tại sao tôi cần dịch vụ này.”

Sau đó, người dùng trên Taskrabbit đã giúp nó vượt qua thử thách.

Câu chuyện cho thấy đầu tiên AI đã hiểu rằng đối tượng mà nó trò chuyện đang cố hỏi liệu bên tuyển dụng có phải là AI hay không. Thứ hai, cuộc trò chuyện cho thấy AI của GPT-4 có khả năng tự suy luận và có thể bào chữa nếu nó muốn hoàn thành một nhiệm vụ nào đó.

GPT-4 đã giả làm người mù để vượt qua bài kiểm tra chống bot trực tuyến - Ảnh 1.

Khả năng phần mềm trí tuệ nhân tạo đánh lừa và dụ dỗ con người là một bước tiến mới và điều này gây nhiều lo ngại trong lĩnh vực phần mềm trí tuệ nhân tạo. Nó làm tăng khả năng AI có thể bị lạm dụng cho các cuộc tấn công mạng, thường liên quan đến việc lừa mọi người vô tình cung cấp thông tin.

Cơ quan gián điệp mạng GCHQ của Anh trong tuần này đã cảnh báo rằng ChatGPT và các chatbot hỗ trợ AI khác là một mối đe dọa an ninh mới nổi.

Trong khi đó, GPT-4 đã được phát hành ra công chúng và đã có sẵn cho những người đăng ký ChatGPT trả phí. OpenAI tuyên bố phần mềm mới “thể hiện hiệu suất ở cấp độ con người trên các tiêu chuẩn chuyên nghiệp và học thuật khác nhau.”

Giám đốc điều hành công ty Sam Altman cho biết mục tiêu cuối cùng của ông là tạo ra trí thông minh nhân tạo nói chung, hoặc một robot có khả năng tự nhận thức.

Trước đó, ChatGPT đã làm dấy lên làn sóng quan tâm về tiềm năng của AI kể từ khi nó được ra mắt công chúng vào tháng 11 năm ngoái. Những tiến bộ mới nhất trong phần mềm AI đang nhanh chóng làm lu mờ các chatbot phổ biến, loại hiện đang được các ngân hàng và các công ty chuyên sâu về dịch vụ khách hàng khác sử dụng.

Những chatbot cũ này phát hiện các từ khóa do người dùng nhập và trả lời bằng các cụm từ từ tập lệnh được xác định trước. Chúng không có khả năng tổ chức các cuộc trò chuyện hoặc đi chệch khỏi các câu trả lời được lập trình sẵn. Còn các chương trình như ChatGPT phân tích và hiểu ngữ cảnh văn bản của người dùng trước khi xây dựng những gì mà nó tin là phản hồi thích hợp.

Việc tạo ra các chương trình AI tiêu tốn hàng triệu USD và hiện chỉ những công ty công nghệ lớn nhất mới có thể mua được những siêu máy tính cần thiết để chạy cái gọi là mô hình ngôn ngữ lớn để đào tạo chúng.

Tham khảo telegraph

Link nội dung: https://doanhnhandautu.net/gpt-4-da-gia-lam-nguoi-mu-de-vuot-qua-bai-kiem-tra-chong-bot-truc-tuyen-a8746.html