Người đàn ông đã gọi cho Ruth Card có giọng nói nghe giống như cháu trai Brandon của bà. Vì vậy, khi anh ta nói rằng mình đang ở trong tù, không có ví hay điện thoại di động và cần tiền để được tại ngoại, Card đã cố gắng làm bất cứ điều gì có thể để giúp đỡ.
“Cảm giác lúc đó của tôi chắc chắn là… sợ hãi”, bà nhớ lại. “Rằng tôi phải giúp nó ngay lập tức.”
Ruth Card, 73 tuổi, và chồng mình là Greg Grace, 75 tuổi, đã lao đến ngân hàng gần nhất để rút 3.000 CAD (tương đương 2.200 USD), hạn mức tối đa hàng ngày. Sau đó, họ vội vã đến chi nhánh ngân hàng thứ hai để kiếm thêm tiền. Nhưng một quản lý ngân hàng đã kéo họ vào văn phòng riêng để nói chuyện. Bởi một khách hàng quen khác của ngân hàng đã nhận được một cuộc gọi tương tự và người này biết được giọng nói trong điện thoại đã bị giả mạo. Và Card được nhân viên ngân hàng cảnh báo rằng người trên điện thoại có lẽ không phải là cháu trai của họ. Đó là khi họ nhận ra rằng mình đã bị lừa.
“Chúng tôi đã bị cuốn vào”, Card nói trong một cuộc phỏng vấn với The Washington Post. “Chúng tôi tin chắc rằng mình đang nói chuyện với Brandon.”
Ruth Card, người đã suýt bị lừa bởi một cuộc gọi giả mạo qua điện thoại.
Các vụ lừa đảo mạo danh ở Mỹ nói riêng và trên toàn thế giới nói chung đang gia tăng, và câu chuyện của bà Card chỉ là một phần trong số đó, cho thấy một xu hướng này đang phát triển một cách đáng lo ngại. Công nghệ đang giúp những kẻ xấu bắt chước giọng nói dễ dàng và với chi phí hơn, nhằm thuyết phục mọi người mà chủ yếu là người lớn tuổi rằng những người thân yêu của họ đang gặp nạn.
Vào năm ngoái 2022, lừa đảo mạo danh là trò lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 báo cáo về việc mọi người đã bị lừa bởi những kẻ giả danh bạn bè và người thân trong gia đình, theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ. Các quan chức của FTC cho biết hơn 5.100 sự cố đã xảy ra qua điện thoại, gây thiệt hại hơn 11 triệu USD.
Các con số đang cho thấy những tiến bộ trong công nghệ trí tuệ nhân tạo đã tạo ra những điều đáng sợ mới, khi cho phép những kẻ xấu sao chép giọng nói chỉ bằng một mẫu âm thanh đơn giản. Được hỗ trợ bởi AI, một loạt công cụ trực tuyến giá rẻ hiện nay có thể dịch các tệp âm thanh để tạo thành bản sao của giọng nói, cho phép kẻ lừa đảo có thể “nói” bất cứ thứ gì chúng nhập vào.
Các chuyên gia cho biết các cơ quan quản lý và thực thi pháp luật cũng như tòa án ở các nước đang không được trang bị đầy đủ để kiềm chế nạn lừa đảo đang ngày càng phát triển này. Hầu hết các nạn nhân đều có rất ít manh mối để xác định thủ phạm và cảnh sát cũng rất khó theo dõi các cuộc gọi và dòng tiền từ những kẻ lừa đảo đang hoạt động gần như xuyên quốc gia trên khắp thế giới. Và có rất ít tiền lệ pháp lý để các tòa án buộc các công ty sản xuất các công cụ AI phải chịu trách nhiệm về việc sử dụng chúng.
Hany Farid, giáo sư pháp y kỹ thuật số tại Đại học California ở Berkeley, cho biết: “Thật đáng sợ. Đó là một cơn bão hoàn hảo… tất cả các thành phần để tạo ra sự hỗn loạn đã có sẵn.”
Mặc dù cách thức lừa đảo của những kẻ mạo danh có thể đa dạng và linh hoạt, nhưng về cơ bản chúng hoạt động theo cùng một nguyên tắc. Kẻ lừa đảo sẽ mạo danh một người đáng tin cậy - trẻ em, người yêu hoặc bạn bè - và thuyết phục nạn nhân gửi tiền cho họ vì họ đang gặp khó khăn.
Và giờ đây, công nghệ chế tạo giọng nói đang khiến các mưu mẹo này trở nên thuyết phục hơn. Các nạn nhân báo cáo rằng họ đã trải qua nỗi kinh hoàng khi nghe chuyện những người thân yêu gặp nguy hiểm.
Đây cũng là tác động đen tối của sự gia tăng trong thời gian gần đây về trí tuệ nhân tạo tổng quát, thứ có thể hỗ trợ các phần mềm tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu được cung cấp. Những tiến bộ về toán học và khả năng tính toán đã cải thiện cơ chế đào tạo cho các phần mềm như vậy, thúc đẩy một nhóm công ty phát hành chatbot AI, trình tạo hình ảnh và trình tạo giọng nói giống như thật.
Giáo sư Farid cho biết các phần mềm tạo giọng nói AI có thể phân tích các yếu tố khiến giọng nói của một người trở nên độc đáo - bao gồm tuổi tác, giới tính và cách phát âm - đồng thời tìm kiếm trên cơ sở dữ liệu khổng lồ về các giọng nói để tìm những giọng nói tương tự và dự đoán các mẫu.
Sau đó, nó có thể tái tạo lại cao độ, âm vực và các âm thanh riêng lẻ của giọng nói từ một người để tạo ra hiệu ứng tổng thể tương tự, ông nói thêm. Và tất cả những gì chúng cần chỉ là một mẫu âm thanh ngắn, có thể được lấy từ những nơi như YouTube, podcast, quảng cáo, video TikTok, Instagram hoặc Facebook.
“Hai năm trước, thậm chí một năm trước, bạn cần rất nhiều dữ liệu âm thanh để sao chép giọng nói của một người”, Farid nói. “Bây giờ… nếu bạn có một trang Facebook… hoặc nếu bạn đã ghi âm giọng nói của mình trên TikTok trong 30 giây, mọi người có thể sao chép giọng nói của bạn.”
Người gia là đối tượng dễ bị các nhóm lừa đảo nhắm tới.
ElevenLabs, một công ty khởi nghiệp về công cụ tổng hợp giọng nói bằng AI được thành lập vào năm 2022, có thể chuyển đổi một mẫu giọng nói ngắn thành giọng nói được tạo tổng hợp thông qua một công cụ độc quyền. Theo trang web của nhà phát triển, phần mềm ElevenLabs có thể miễn phí hoặc có giá từ 5 đến 330 USD mỗi tháng để sử dụng, với mức giá cao hơn cho phép người dùng tạo ra nhiều âm thanh hơn.
ElevenLabs đã nhận những lời chỉ trích về công cụ của mình, thứ đã được sử dụng để sao chép giọng nói của những người nổi tiếng. Công ty đã không trả lời các yêu cầu bình luận, nhưng trong một chủ đề trên Twitter, đại diện ElevenLabs cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn việc lạm dụng, bao gồm cấm người dùng miễn phí tạo giọng nói tùy chỉnh và khởi chạy công cụ phát hiện âm thanh do AI tạo ra.
Nhưng những biện pháp bảo vệ như vậy là quá muộn đối với những nạn nhân như Benjamin Perkin, người mà cha mẹ của anh đã mất hàng nghìn USD tiền tiết kiệm vì một vụ lừa đảo bằng giọng nói.
Cơn ác mộng của anh bắt đầu khi cha mẹ anh nhận được điện thoại từ một luật sư, người nói rằng con trai họ đã giết một nhà ngoại giao Mỹ trong một vụ tai nạn xe hơi. Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý. Sau đó một cuộc gọi khác xuất hiện, với giọng nói phát ra như của “Perkin”, nói rằng anh cần khoảng 15.000 USD trước khi phải ra tòa vào cuối ngày hôm đó.
Cha mẹ của Perkin sau sự việc đã nói rằng cuộc gọi có vẻ bất thường, nhưng họ đã cảm giác rằng mình đã thực sự nói chuyện với con trai mình. Trong tình trạng hoảng loạn, họ vội vã đến ngân hàng để lấy toàn bộ tiền mặt mình có và gửi cho vị luật sư lạ mặt.
Khi Perkin thật gọi điện cho bố mẹ vào tối hôm đó, tất cả đã rất bối rối. Không rõ những kẻ lừa đảo lấy mẫu giọng nói của Perkin ở đâu, nhưng nhiều khả năng là từ các video anh đăng trên YouTube nói về sở thích trượt tuyết của mình. Perkin cho biết gia đình đã trình báo cảnh sát nhưng điều đó đã không giúp lấy lại khoản tiền.
“Không có bảo hiểm. Không thể lấy lại được. Nó đã mất hoàn toàn", anh chia sẻ.
Will Maxson, trợ lý giám đốc bộ phận thực hành tiếp thị của FTC, cho biết việc theo dõi những kẻ lừa đảo bằng giọng nói có thể “đặc biệt khó khăn” vì chúng có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, khiến cho việc xác định cơ quan nào có thẩm quyền đối với một vụ lừa đảo trở nên đặc biệt phức tạp.
Maxson kêu gọi mọi người nên cảnh giác liên tục. Nếu một người thân yêu nói với bạn rằng họ cần tiền, hãy tạm dừng cuộc gọi đó và thử gọi riêng cho thành viên đó. Nếu một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, hãy hiểu rằng cuộc gọi đó cũng có thể bị giả mạo. Quan trọng nhất, đừng bao giờ trả tiền cho người lạ bằng những công cụ khó theo dõi như thẻ quà tặng, cũng như cảnh giác với bất kỳ yêu cầu nào về tiền mặt.
Trong khi đó, giáo sư Farid cho biết các tòa án nên quy trách nhiệm cho các công ty AI nếu sản phẩm họ tạo ra đang gây hại.
Còn đối với Card, kinh nghiệm đã khiến bà cảnh giác hơn. Năm ngoái, bà đã nói chuyện với tờ báo địa phương để lên tiếng cảnh báo mọi người về những trò gian lận này. Vì không mất đồng nào nên bà đã không báo cảnh sát. Nhưng hơn hết, bà cho biết mình cảm thấy xấu hổ.
“Đó không phải là một câu chuyện hấp dẫn”, bà nói. “Nhưng nó không nhất thiết phải tốt hơn câu chuyện giả mạo đã thuyết phục được chúng tôi.”
Tham khảo TheWashington Post