Tuy nhiên, khi công nghệ này bị lạm dụng, chúng ta phải xây dựng tuyến phòng thủ" - chuyên gia Ning Zhang của Trường ĐH Washington (Mỹ) nói với đài National Public Radio (NPR).
Nhóm nghiên cứu của ông Zhang đang phát triển công cụ mới nhằm chống lại hành vi lạm dụng deepfake. Với tên gọi AntiFake, công cụ này hoạt động bằng cách làm xáo trộn tín hiệu, khiến AI gặp khó khăn hơn trong việc tạo ra nội dung deepfake. Trước khi đăng video hoàn chỉnh lên mạng, người dùng có thể tải bản giọng nói lên nền tảng AntiFake.
Công cụ này sẽ làm xáo trộn tín hiệu âm thanh, gây nhầm lẫn cho AI. Nội dung được AntiFake điều chỉnh vẫn phát ra âm thanh bình thường đối với tai người nhưng lại khiến AI gặp khó khăn trong việc sao chép giọng nói rõ ràng.
Ngoài AntiFake, người dùng có thể dựa vào một số công nghệ khác để nhận diện nội dung deepfake, bao gồm SynthID của Google và Stable Signature của Meta.
Các công nghệ khác, được phát triển bởi những công ty như Pindrop (Mỹ) và Veridas (Tây Ban Nha), có thể giúp phát hiện nội dung deepfake bằng cách "soi" từng chi tiết nhỏ, chẳng hạn câu chữ có khớp với khẩu hình người nói hay không.
Trong cuộc chiến chống lại hành vi lạm dụng deepfake, sự đồng thuận được xem là yếu tố quan trọng nhất. Thượng viện Mỹ vào tháng 10 cho biết đang thảo luận dự luật mới nhằm xử lý những trường hợp sử dụng giọng nói và hình ảnh của người khác để tạo ra nội dung deepfake mà chưa nhận được sự đồng thuận.