“Bạn gái AI không yêu bạn đâu, cô ta chỉ muốn dữ liệu của bạn thôi”

Admin
Nguy cơ mới sinh ra nhu cầu được lắng nghe của những cá nhân cô đơn.

Ứng dụng công nghệ đan xen ngày một sâu với cuộc sống thường nhật, dấu hiệu nhận biế xuất hiện khi đời thực nay đã có đôi nét tương đồng với các tác phẩm khoa học viễn tưởng. Tương tự như nhân vật chính trong bộ phim đoạt giải Oscar, Her, ngày nay đã có rất nhiều người cô đơn tìm niềm vui nơi tri kỷ kỹ thuật số.

Nhưng trái với bạn trai/bạn gái thực, nhiều khả năng bạn ảo không hề biết cách giữ bí mật.

“Bạn gái AI không yêu bạn đâu, cô ta chỉ muốn dữ liệu của bạn thôi”- Ảnh 1.

Hình minh họa.

Theo một báo cáo từ Mozilla, các ứng dụng bạn gái AI thu thập vô vàn dữ liệu cá nhân nhạy cảm từ người dùng. Những thông tin này có thể được bán cho các doanh nghiệp quảng cáo hay các con buôn dữ liệu. Hơn nữa, những cô bạn gái ảo còn đứng trước nguy cơ … bị hack, qua đó làm lộ dữ liệu nhạy cảm của người dùng.

Nhóm nghiên cứu tại Mozilla điều tra tất cả 11 chatbot tình cảm có tiếng, bao gồm những cái tên nổi bật như Replika, Chai hay Eva. Khó có thể cung cấp chính xác số người sử dụng những dịch vụ dạng này; chỉ tính riêng trên nền tảng Google Play, số người tải về những ứng dụng chatbot tình cảm đã lên tới con số 100 triệu.

Tận dụng trí tuệ nhân tạo, những chatbot dạng này sẽ mô phỏng tương tác của một cô bạn gái ảo, một tri kỷ hay một người bạn tiếp chuyện phiếm. Để có thể sản sinh ra những đoạn chat giống người, chatbot sẽ phải học rất nhiều những thông tin của người dùng, bao gồm cả những dữ liệu thầm kín, nhạy cảm.

“Chatbot AI lãng mạn thu thập rất nhiều dữ liệu, hơn nhiều so với những thứ thường thấy như địa điểm và sở thích”, Misha Rykov, một nhà nghiên cứu công tác tại Mozilla cho hay. Thậm chí một số ứng dụng còn theo dõi cả tình trạng sức khỏe người dùng.

“Bạn gái AI không yêu bạn đâu, cô ta chỉ muốn dữ liệu của bạn thôi”- Ảnh 2.

Ảnh chụp màn hình ứng dụng EVA AI Chat Bot & Soulmate cho thấy chatbot này gợi ý người dùng thổ lộ hết bí mật, đồng thời gửi cả ảnh và giọng nói - Ảnh: TNW.

10 trong số 11 bạn gái ảo được điều tra không đáp ứng đủ tiêu chuẩn an toàn thông tin do Mozilla đặt ra, đơn cử như việc yêu cầu đặt mật khẩu khó đoán. Ví dụ với Replika: chatbot này thu thập nội dung dạng chữ, hình ảnh và video do người dùng đăng tải, trong khi đó tài khoản có thể mang mật khẩu "11111111" mà không vấn đề gì. 

Theo Mozilla, chủ quản Replika “chắc chắn” có chia sẻ dữ liệu, và “có thể” bán số dữ liệu này cho các đơn vị quảng cáo.

Nghiên cứu của Mozilla cho thấy ẩn đằng sau những cô bạn gái ảo này là hàng ngàn các “tracker”, có tác dụng tự động theo dõi và gửi dữ liệu về cho các đơn vị quảng cáo. Trên ứng dụng có tên Romantic AI, nhóm nghiên cứu phát hiện ra ít nhất 24.354 tracker đang hoạt động.

Những tracker dạng này có thể gửi thông tin nhạy cảm mà không xin phép người dùng, và rất có thể hoạt động này còn vi phạm các điều lệ liên quan tới bảo mật thông tin cá nhân. Các ứng dụng thường không cung cấp thông tin liên quan tới hoạt động thu thập dữ liệu, thậm chí một số chatbot AI lãng mạn còn không có website riêng.

Và người dùng không chỉ đứng trước nguy cơ rò rỉ dữ liệu nhạy cảm, họ hoàn toàn có thể bị lợi dụng, thao túng bởi thứ “bạn tâm giao ảo” này. Hiện nay, kẻ gian hoàn toàn có thể thiết kế một chatbot thu thập dữ liệu từ người dùng, rồi dùng chúng để thao túng những cá nhân tâm lý yếu, khiến họ làm những điều dại dột, tuân theo những giáo điều sai trái hay thậm chí, làm hại chính mình và những người xung quanh.

“Bạn gái AI không yêu bạn đâu, cô ta chỉ muốn dữ liệu của bạn thôi”- Ảnh 3.

Hình minh họa.

Vậy mà các ứng dụng dạng này thường được quảng bá là “nền tảng tăng cường sức khỏe tinh thần". Quảng cáo một đằng, nhưng chính sách lại nói một nẻo.

Điển hình là ứng dụng Romantic AI, họ khẳng định mình “không phải nhà cung cấp dịch vụ y tế và chăm sóc sức khỏe, hay dịch vụ chăm sóc sức khỏe tinh thần”. Tuy nhiên, website của ứng dụng nêu bật thông điệp “Romantic AI hiện hữu để duy trì cho sức khỏe tinh thần của bạn”.

Thông qua nghiên cứu này, Mozilla mong muốn các đơn vị cung cấp dịch vụ bạn gái AI phải minh bạch hơn trong hoạt động huấn luyện AI, đồng thời cho phép người dùng từ chối đưa dữ liệu cá nhân và bộ dữ liệu huấn luyện chatbot.

Trước khi có những biện pháp từ phía đơn vị cung cấp dịch vụ hay từ phía các nhà lập pháp, thì trách nhiệm bảo vệ bản thân sẽ phải tới từ chính người dùng. Ngoài tỉnh táo trên không gian mạng, người dùng sẽ cần cảnh giác trước những cô bạn gái ảo, bạn tâm giao AI, tri kỷ kỹ thuật số, … vô tri giác.