Mark Zuckerberg ngó lơ sự tệ hại của Instagram: Có 1 lỗ hổng nghiêm trọng, báo cáo về an toàn người dùng không chính xác

Admin
Phía Meta không công nhận điều này.
Mark Zuckerberg ngó lơ sự tệ hại của Instagram: Có 1 lỗ hổng nghiêm trọng, báo cáo về an toàn người dùng không chính xác - Ảnh 1.

Mùa thu năm 2021, một nhà tư vấn tên Arturo Bejar đã gửi Meta một lưu ý bất thường:

“Tôi muốn các bạn chú ý đến một lỗ hổng nghiêm trọng”, Bejar nói và cho biết Meta tự dối lòng mình dù thường xuyên đưa ra các báo cáo công khai về an toàn người dùng.

Trải nghiệm của những người dùng trẻ tuổi đối với Instagram — nơi Bejar dành 2 năm trước đó làm cố vấn—đặc biệt sâu sắc. Trong email tiếp theo gửi tới người đứng đầu Adam Mosseri, một thống kê nổi bật được ghi lại: 1 trong số 8 người dùng dưới 16 tuổi cho biết họ đã phải trải qua nhiều hành vi quấy rối tình dục không mong muốn trên nền tảng.

Đối với Bejar, phát hiện đó không có gì đáng ngạc nhiên. Chính con gái ông cũng từng nhận được những bức ảnh nhạy cảm từ năm 14 tuổi và hệ thống của Meta phớt lờ điều này.

Bejar lập luận rằng vì lợi ích của người dùng, Meta nên thay đổi hướng đi và tập trung hơn vào hệ thống kiểm soát. Công ty cần thu thập dữ liệu về những điều khiến người dùng khó chịu, sau đó tìm cách khắc phục.

“Tôi đang cảnh báo bạn. Tôi tin rằng làm việc theo cách này sẽ khiến văn hóa thay đổi”, Bejar viết cho Zuckerberg.

Khi được yêu cầu bình luận, Meta phản bác khẳng định của Bejar. Phía công ty cho rằng họ luôn chú ý đến trải nghiệm người dùng, thậm chí tung ra một số tính năng hữu hiệu, chẳng hạn như cảnh báo người dùng trước khi họ đăng nhận xét những nội dung có khả năng gây khó chịu.

Bejar ban đầu được thuê làm giám đốc kỹ thuật Facebook vào năm 2009. Chịu trách nhiệm bảo vệ người dùng nền tảng, ban đầu ông coi nhiệm vụ này là công việc bảo mật truyền thống, xây dựng công cụ để chống lại hacker và vấn nạn lừa đảo.

Việc giám sát bài đăng của hơn 300 triệu người dùng Facebook khi đó không đơn giản. Có quá nhiều tương tác trên Facebook và phía công ty không thể kiểm soát tất cả.

Bejar yêu thích công việc này song lại quyết định rời đi vì muốn dành nhiều thời gian hơn cho con. Ông và con gái 14 tuổi sau đó theo đuổi sở thích chung, cùng nhau sửa chữa những chiếc xe cổ và đăng thành quả lên Instagram.

Tuy nhiên, rắc rối bắt đầu. Nhiều người xem video của cô bé chỉ vì bị thu hút bởi bộ ngực khủng. Phía Instagram không hề cảnh báo những tài khoản buông lời lẽ thiếu tế nhị và điều này khiến Bejar choáng váng. Ông càng sốc hơn khi hầu như tất cả bạn bè của con gái đều bị quấy rối tương tự.

Bejar bắt đầu đặt câu hỏi cho các đồng nghiệp cũ của mình ở Facebook, rằng bằng cách nào, họ có thể xử lý những hành vi sai trái đó. Phía công ty đáp lại bằng cách mời ông ký vào bản hợp đồng hợp tác tư vấn trong 2 năm.

Năm 2019, Bejar quay trở lại Meta và có cơ hội tiếp cận nhiều giám đốc điều hành hàng đầu. Ông phát hiện ra trong suốt 4 năm mình vắng mặt, Meta chỉ tiếp cận việc quản lý hành vi người dùng như một quy trình tự động. Các kỹ sư biên soạn những nội dung nhạy cảm, sau đó đào tạo mô hình để sàng lọc.

Theo số liệu riêng của công ty, cách tiếp cận này cực kỳ hiệu quả. Trong vòng vài năm, công ty khoe rằng 99% nội dung khủng bố mà họ gỡ xuống đã bị xóa tự động. Tuy nhiên, hệ thống không phát hiện được phần lớn nội dung bị cấm. Guy Rosen, người đứng đầu bộ phận kiểm duyệt của Facebook vào thời điểm đó được cảnh báo rằng các bộ phân loại của Meta chỉ có thể loại bỏ một tỷ lệ phần trăm thấp các lời nói căm thù.

Để chứng minh những thiếu sót của Meta, Bejar cùng một các nhóm nhân viên bắt đầu thu thập dữ liệu. Dựa trên mô hình khảo sát định kỳ với người dùng Facebook, nhóm xây dựng một bảng câu hỏi mới có tên BEEF, viết tắt của “Phản hồi về trải nghiệm cảm xúc tồi tệ”. Kết quả, tỷ lệ người dùng chứng kiến hành vi quấy rối trong tuần trước cao hơn 100 lần so với số liệu thống kê của Meta.

Trong số những người dùng dưới 16 tuổi, 26% kể lại rằng họ đã có trải nghiệm tồi tệ. Hơn 20% cảm thấy tồi tệ hơn về bản thân sau khi xem bài đăng của người khác, trong khi 13% đã trải qua những hành vi tán tỉnh tình dục không mong muốn.

Các nhóm khác tại Instagram đã bắt đầu nghiên cứu các đề xuất nhằm giải quyết vấn đề mà BEEF nêu bật. Để giảm thiểu nội dung nhạy cảm, Instagram có thể giới hạn số lượng nội dung mà người dùng tiếp cận. Nền tảng cũng có thể giúp người dùng báo cáo những hành vi không mong muốn để tăng các trải nghiệm tích cực.

Tuy nhiên, phía Meta không công nhận điều này.

“Thật vô lý khi cho rằng chúng tôi chỉ bắt đầu khảo sát nhận thức người dùng vào năm 2019”, đại diện Meta nói.

Bejar biết công ty không đánh giá cao sự nghiêm trọng của vấn đề, song vẫn cố gửi email tới Mark Zuckerberg, Giám đốc điều hành Sheryl Sandberg, Giám đốc sản phẩm Chris Cox và Giám đốc Instagram Adam Mosseri về kết quả khảo sát BEEF. Cùng ngày, phiên điều trần quốc hội đầu tiên có sự góp mặt của cựu nhân viên Frances Haugen đã diễn ra. Người phụ nữ này cáo buộc phía nền tảng cố tình gây hại người dùng, đồng thời làm suy yếu diễn ngôn của công chúng.

Adam Mosseri thay mặt nhóm phản hồi. Ông thừa nhận vấn đề mà Bejar đã chỉ ra, đồng thời ngỏ ý rất muốn sửa chữa vấn đề.

Tuy nhiên, nỗ lực của Bejar trong việc chia sẻ dữ liệu đã gặp trở ngại. Sau khi Haugen công bố nghiên cứu nội bộ, Meta ngăn chặn mọi thông tin mà nếu rò rỉ sẽ gây ra ảnh hưởng nghiêm trọng tới danh tiếng. Phía công ty cũng ngừng tiến hành cuộc khảo sát về BEEF, sau đó sa thải hầu hết các thành viên dự án như một phần của kế hoạch ‘Năm hiệu quả’.

Theo: WSJ