Lừa đảo deepfake và nguồn cung hình ảnh từ trò chơi ảnh chân dung AI

Admin
Ảnh chân dung trí tuệ nhân tạo từ trò chơi cho vui, cập nhật xu hướng hay sự vô tư “tiếp tay” tạo nguồn dữ liệu cho tội phạm mạng khai thác sử dụng trong deepfake trở thành công cụ lừa đảo.

Thời gian qua, hàng loạt trào lưu tạo ảnh bằng trí tuệ nhân tạo (AI) xuất hiện, thu hút sự quan tâm lớn. Gần đây, người dùng mạng xã hội Việt Nam chia sẻ hàng loạt ảnh được tạo bởi AI Avatar bên trong ứng dụng Zalo. Để sử dụng, app yêu cầu cấp quyền truy cập vào kho ảnh hoặc camera, chọn ảnh rõ mặt. Người dùng cũng cần nhập một số thông tin về giới tính, lứa tuổi và phong cách ảnh mong muốn. Trước đó, một số ứng dụng như Lensa, Loopsie, Reface cũng từng gây sốt tại Việt Nam.

Lừa đảo deepfake và nguồn cung hình ảnh từ trò chơi ảnh chân dung AI - Ảnh 1.

Ảnh chân dung trí tuệ nhân tạo gây sốt trong người dùng xã hội thời gian gần đây

Tâm lý “bắt trend” cho vui khi theo trào lưu ảnh AI

Khi thấy bạn bè chia sẻ ảnh trí tuệ nhân tạo (AI) tạo ra bởi Zalo AI, Nguyễn Hương Mai không chút do dự tải ngay về để thử, bởi với Mai, tuổi trẻ là không thể lạc hậu với các trend mới (xu hướng), dù có nhiều nguy cơ lộ thông tin cá nhân.

“Với tuổi trẻ chúng em, trend là phải cập nhật. Những trend kiểu này vui là chính thôi. Em cũng như nhiều bạn bè thường xuyên up ảnh lên mạng xã hội hay kể cả chỉnh sửa qua các ứng dụng (app) rồi, nên có lẽ ảnh chân dung cũng không có gì là phải giữ bí mật”, Mai chia sẻ.

Không chỉ riêng các bạn trẻ, với nhiều người những trào lưu mới tạo ảnh AI từ ảnh gốc sang ảnh hoạt hình, ảnh đồ họa hay ảnh so sánh tuổi… đã từng có trước đây, chủ yếu cho vui. Mặc dù đã có nhiều thông tin cảnh báo về nguy cơ lộ lọt thông tin cá nhân, nhưng với không ít người vẫn chủ quan, coi nhẹ.

“Tôi thử nghiệm ảnh cả gia đình luôn, thấy khá vui và thú vị. Bản thân Zalo đã có hết thông tin cá nhân của tôi rồi, giờ có dùng thêm ứng dụng Zalo AI chắc cũng không thể lộ hơn được nữa. Thêm vào đó, thông tin cá nhân bây giờ bị rò rỉ nhiều đến mức không rõ nguồn. Chúng tôi thường xuyên bị làm phiền bởi các cuộc gọi rác nắm rõ thông tin cá nhân luôn, giờ lộ thêm một vài hình ảnh chắc cũng vậy thôi”, chị Nguyễn Thanh Nga, quận Thanh Xuân bày tỏ.

Theo các chuyên gia, người Việt Nam tham gia Internet đang thiếu kỹ năng cũng như thiếu trách nhiệm đối với dữ liệu cá nhân của bản thân cũng như sự an toàn của người dùng và những người xung quanh.

Thuật ngữ “deepfake” là sự kết hợp giữa “deep learning” và “fake”. Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google. Deepfake quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ trí tuệ nhân tạo (AI) và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực rất cao.

Ông Vũ Ngọc Sơn, Giám đốc công nghệ Công ty An ninh mạng NCS cho rằng dù thao tác của người dùng đơn giản là nạp ảnh gốc và nhận về ảnh mới hay thao tác này được thực hiện trên bất cứ ứng dụng nào, được đánh giá là tin tưởng hay không, hành động này vẫn tiềm ẩn các rủi ro.

“Bản chất của hành động này là ảnh đã được tải lên và sau đó vẫn lưu trữ tại hệ thống máy chủ của nhà cung cấp dịch vụ. Việc tập trung các hình ảnh tại một nơi sẽ có nguy cơ bị lộ lọt, tấn công bởi hacker. Nếu kho ảnh rơi vào tay kẻ xấu, chúng có thể dùng deepfake để tạo ảnh và video giả mạo cho các mục đích khác nhau, thậm chí lừa đảo. Thực tế, không có bất cứ hệ thống nào là an toàn tuyệt đối. Vì thế, có ý thức trách nhiệm từ “nguồn” về bảo vệ thông tin cá nhân là quan trọng nhất”, ông Sơn khuyến cáo.

Nhận diện khuôn mặt là “chìa khóa” tài khoản ngân hàng

Các chuyên gia cũng cảnh báo, chân dung mỗi người không chỉ là thông tin cá nhân đơn thuần mà khi thu thập đủ các góc sắc nét chân dung, kết hợp với ứng dụng trí tuệ nhân tạo đủ mạnh, thông tin cá nhân tài khoản do nhiều người vô tư chia sẻ, tội phạm có thể tạo ra “chìa khóa” tài khoản giao dịch tài chính để đánh cắp tiền của người dùng.

Lừa đảo deepfake và nguồn cung hình ảnh từ trò chơi ảnh chân dung AI - Ảnh 2.

Nhận diện khuôn mặt (FaceID) được sử dụng nhiều trong các ứng dụng liên quan đến tài chính (Ảnh minh họa: Internet)

Theo nghiên cứu mới đây của Kaspersky (một những hãng bảo mật, an ninh mạng lớn nhất thế giới) cho thấy, trong bối cảnh các tiến bộ công nghệ liên tục định hình mạng xã hội và phương tiện truyền thông đại chúng, deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng.

Trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, ghi nhận có nhiều tội phạm sử dụng deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm deepfake hiện có trên thị trường.

“Khi cầu vượt cung, lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Nguồn dữ liệu tạo deepfake càng đa dạng sẽ khiến video, hình ảnh tạo ra càng chân thực hơn, giúp cho những đối tượng xấu có thêm dữ liệu để thực hiện các vụ lừa đảo”, các chuyên gia của Kaspersky dự đoán.

Trước đó trong cuộc họp báo thường kỳ tháng 9/2023, Cục An toàn thông tin, Bộ Thông tin và Truyền thông đã khuyến cáo việc sử dụng các ứng dụng chỉnh sửa ảnh khuôn mặt ẩn chứa rủi ro. Khuôn mặt là một trong những dữ liệu rất quan trọng hiện nay, một trong số đó là để xác thực tài khoản.

“Với deepfake, dữ liệu khuôn mặt có thể bị lợi dụng để tạo ảnh giả, sao chép chân dung người khác. Nhiều ứng dụng trong đó giao dịch tài chính đều liên quan đến xác thực khuôn mặt (face ID). Từ mối liên hệ này, chúng tôi đánh giá việc sử dụng ứng dụng chỉnh sửa ảnh tiềm ẩn nguy cơ mất an toàn thông tin”, đại diện Cục An toàn thông tin nói.

Còn theo đánh giá của Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (A05), Bộ Công an, deepfake đã trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn cho những trường hợp cấp bách. Một cuộc gọi điện video deepfake có thể được thực hiện chỉ trong vòng 1 phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.

Các chuyên gia khuyến nghị người dùng cần ý thức bảo vệ dữ liệu cá nhân của mình, chỉ cung cấp thông tin thực sự cần thiết, kiểm tra kỹ điều khoản sử dụng, cũng như biết rõ thông tin mình cung cấp sẽ được sử dụng vào mục đích gì. Với các app chỉnh ảnh, người dùng có thể sử dụng cơ chế bảo vệ của hệ điều hành smartphone không cho truy cập kho ảnh đầy đủ, chỉ đưa lên những bức ảnh cho mục đích chỉnh sửa…