Dự thảo gồm 10 nguyên tắc về sử dụng AI đã được trình bày không chính thức tại cuộc họp của Hội đồng chiến lược AI. Trong đó nguyên tắc đầu tiên là “tập trung vào con người”, yêu cầu những người vận hành liên quan đến AI phải “tôn trọng phẩm giá của cá nhân và chú ý cẩn thận đến những nguy cơ có thể xảy ra”. Nguyên tắc này cũng yêu cầu “không phát triển hoặc cung cấp AI cho mục đích thao túng bất chính quyết định hoặc cảm xúc của con người”.
Nguyên tắc “công bằng” lưu ý “khả năng dữ liệu đào tạo của AI có thể chứa những thành kiến không thể chấp nhận được” và nhấn mạnh người sử dụng cần đưa ra phán đoán trong những trường hợp này để đảm bảo rằng AI không thúc đẩy sự phân biệt đối xử.
Đối với việc học dữ liệu bằng AI, nguyên tắc “minh bạch” yêu cầu người vận hành cung cấp thông tin về các phương pháp thu thập dữ liệu và đảm bảo “trách nhiệm giải trình”, nêu rõ rằng nguồn dữ liệu phải “có thể truy được nguồn gốc trong phạm vi khả thi về mặt kỹ thuật”.
Hiện tại, bản dự thảo chưa đưa ra quy định đối các vấn đề cụ thể cần giải quyết, chẳng hạn như lo ngại về vi phạm bản quyền do học tập AI gây ra. Ngoài 10 nguyên tắc chung, dự thảo còn yêu cầu các nhà phát triển ghi lại quá trình phát triển hệ thống như thu thập dữ liệu, thuật toán được sử dụng… dưới dạng tài liệu có thể xác minh bởi bên thứ 3.
Dự thảo sẽ được áp dụng cho tất cả những người sử dụng AI cho doanh nghiệp, bao gồm cả các tổ chức công như các bộ, ngành. Những người dùng không trực tiếp sử dụng AI trong doanh nghiệp cũng như các nhà cung cấp dữ liệu sẽ không nằm trong phạm vi điều chỉnh của dự thảo.
Cuối tháng 10 vừa qua, Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), bao gồm cả Nhật Bản đã nhất trí đã về các nguyên tắc hướng dẫn và một Bộ quy tắc Ứng xử cho những nhà phát triển các dạng AI tiên tiến. Dự thảo hướng dẫn này của Nhật Bản nhằm mục đích đưa quy tắc này vào thực tế trong nước.
Dự thảo đang được Hội đồng chiến lược AI của Nhật Bản xem xét và dự kiến sẽ hoàn thiện vào cuối năm nay.