Luật công nghiệp công nghệ số: Cần quy định rõ ràng, hợp lý, thúc đẩy phát triển trí tuệ nhân tạo
Bà Nguyễn Huyền Minh, Luật sư cấp cao, Công ty Luật TNHH Quốc tế BMVN (liên minh của Baker McKenzie) phạm vi của khái niệm "hệ thống trí tuệ nhân tạo có rủi ro cao" nên được thu hẹp lại Khoản 1 Điều 61 của Dự thảo: Hệ thống trí tuệ nhân tạo có khả năng gây ra những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân; có khả năng tác động cao, phạm vi tác động lớn, số lượng người dùng lớn, lượng tính toán tích lũy sử dụng để huấn luyện lớn là hệ thống trí tuệ nhân tạo có rủi ro cao trừ trường hợp quy định tại khoản 2 Điều này.
Đồng thời bà Hằng phân tích định nghĩa "hệ thống trí tuệ nhân tạo có rủi ro cao" hiện còn rất mơ hồ và thiếu rõ ràng, dẫn đến khả năng không thể thực thi khi dự thảo 4.0 không đưa ra định nghĩa như thế nào là những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân; không đưa ra giới hạn cụ thể về khả năng tác động, phạm vi tác động, số lượng người dùng và lượng tính toán tích lũy để huấn luyện (chẳng hạn như số lượng người dùng tối thiểu để được xem là "có rủi ro cao").
Cần tham khảo các quy định hiện hành mang tính chuẩn mực của pháp luật quốc tế, để đảm bảo Việt Nam có khung pháp lý phù hợp với pháp luật quốc tế. |
Bà Hằng cũng chỉ ra cách tiếp cận của Luật Công nghiệp công nghệ số để xác định các hệ thống trí tuệ nhân tạo không có rủi ro cao không thống nhất (và đang đi ngược lại) với các tiêu chuẩn quản lý trí tuệ nhân tạo đã tồn tại và đang được áp dụng trên thế giới. Cụ thể, để phù hợp với sự phát triển của công nghệ trong tương lai, Ban soạn thảo nên cân nhắc không nên điều chỉnh các công nghệ một cách cụ thể (ví dụ công nghệ trí tuệ nhân tạo) mà nên tập trung vào quản lý việc sử dụng các công nghệ đó.
Đồng thời Ban soạn thảo, Cơ quan thẩm tra xác định rõ ràng các tiêu chí để xác định "hệ thống trí tuệ nhân tạo có rủi ro cao" và phạm vi của "hệ thống trí tuệ nhân tạo có rủi ro cao" chỉ nên được hạn chế ở một số hệ thống trí tuệ nhân tạo nâng cao /tiên tiến (và có thể có ảnh hưởng lớn), ví dụ như hệ thống trí tuệ nhân tạo tạo sinh (Generative AI).
Khoản 1 và Khoản 2 Điều 62 Dự thảo áp đặt một số nghĩa vụ đối với cả "nhà phát triển hệ thống trí tuệ nhân tạo" và "nhà cung cấp hệ thống trí tuệ nhân tạo". Trong đó, các chuyên gia chỉ ra nhiều nghĩa vụ đang đặt ra trách nhiệm giám sát nặng nề đối với nhà phát triển hệ thống trí tuệ nhân tạo như: Đánh giá, giải thích các rủi ro an toàn của hệ thống trí tuệ nhân tạo và thiết lập cơ chế giám sát, kiểm toán kỹ thuật theo quy định của pháp luật; Kiểm tra và giám sát thường xuyên các lỗ hổng và rủi ro bảo mật, phải lưu thông tin nhật ký về quá trình phát triển và quản lý hệ thống trí tuệ nhân tạo; Thực hiện đánh giá rủi ro an toàn trước khi cung cấp hệ thống trí tuệ nhân tạo. Những quy định có thể là không khả thi trên thực tiễn khi gây ra nhiều cản trở hoạt động kinh doanh của họ.
Đặc biệt, trong trường hợp các nhà phát triển hệ thống trí tuệ nhân tạo sử dụng công nghệ có mã nguồn mở, họ sẽ không ở vị trí phù hợp về mặt kỹ thuật để tuân thủ đầy đủ các nghĩa vụ nói trên. Bên cạnh nghĩa vụ nêu trên liên quan đến dữ liệu/thông tin cá nhân, nhà phát triển hệ thống trí tuệ nhân tạo còn có nghĩa vụ bảo vệ quyền riêng tư, thông tin cá nhân; giải quyết kịp thời các yêu cầu tra cứu, sao chép, chỉnh sửa, bổ sung, xóa thông tin cá nhân theo quy định của pháp luật về bảo vệ dữ liệu cá nhân (theo điểm b Khoản 1 Điều 62). Cả hai nghĩa vụ này đều có nội dung điều chỉnh vấn đề về dữ liệu cá nhân, vốn thuộc phạm vi điều chỉnh của Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân. Các nghĩa vụ này có thể không phù hợp, gây ra mâu thuẫn với quy định hiện hành.
Khoản 2 Điều 62 định nghĩa nhà cung cấp hệ thống trí tuệ nhân tạo là cá nhân, tổ chức có thẩm quyền quản lý trực tiếp đối với hệ thống trí tuệ nhân tạo. Tuy nhiên, quy định này chưa giải thích rõ điều kiện "quản lý trực tiếp đối với hệ thống trí tuệ nhân tạo". Theo điểm b Khoản 2 Điều 62, nhà cung cấp hệ thống trí tuệ nhân tạo có nghĩa vụ cung cấp đầy đủ thông tin của hệ thống trí tuệ nhân tạo cho người sử dụng. Tuy nhiên, hiện không rõ những thông tin nào là thông tin cần thiết mà nhà cung cấp hệ thống trí tuệ nhân tạo cần phải cung cấp.
Điểm c Khoản 2 Điều 62 dự thảo quy định, nhà cung cấp hệ thống trí tuệ nhân tạo có nghĩa vụ thiết lập cơ chế tiếp nhận và xử lý yêu cầu của người sử dụng, nhà phát triển, cá nhân, tổ chức có liên quan. Tuy nhiên, cụm từ "cá nhân, tổ chức có liên quan" có nội hàm rất rộng, có thể gây ra trở ngại tuân thủ đối với các doanh nghiệp trí tuệ nhân tạo.
Từ phân tích này Công ty Luật TNHH Quốc tế BMVN đề nghị Ban soạn thảo, Cơ quan thẩm tra sửa đổi theo hướng như sau: Loại bỏ các trách nhiệm liên quan đến dữ liệu cá nhân để tránh tình trạng trùng lặp, mâu thuẫn với quy định hiện hành tại Nghị định 13; Nghiên cứu tính khả thi của việc áp đặt các nghĩa vụ giám sát, theo dõi hệ thống đối với từng loại hình doanh nghiệp phát triển hệ thống trí tuệ nhân tạo; Đặt ra các trường hợp miễn trách nhiệm đối với một số nhà phát triển hệ thống trí tuệ nhân tạo nhất định, ví dụ như nhà phát triển sử dụng công nghệ mã nguồn mở; Quy định rõ hơn đối với nghĩa vụ xử lý yêu cầu của người sử dụng, chẳng hạn như nhà cung cấp hệ thống trí tuệ nhân tạo có quyền xác định các cơ sở hợp lý để từ chối xử lý yêu cầu.
Khoản 3 Điều 62 của Dự thảo quy định "người sử dụng hệ thống trí tuệ nhân tạo là cá nhân, tổ chức sử dụng hệ thống trí tuệ nhân tạo, có trách nhiệm sử dụng hệ thống trí tuệ nhân tạo phù hợp với Luật này và quy định pháp luật có liên quan". Quy định này hiện đang rất mơ hồ và chưa đặt ra trách nhiệm sử dụng phù hợp đối với người dùng trí tuệ nhân tạo, nhất là khi những người này ở vị trí có thể dễ dàng lợi dụng các hệ thống trí tuệ nhân tạo vào mục đích xấu. Vì vậy, Ban soạn thảo, Cơ quan thẩm tra cân nhắc quy định các trách nhiệm, nghĩa vụ cụ thể đối với người dùng hệ thống trí tuệ nhân tạo nhằm hướng họ đến việc sử dụng trí tuệ nhân tạo có trách nhiệm.
Khoản 1 Điều 63 của Dự thảo quy định "các sản phẩm công nghệ số tạo ra bởi hệ thống trí tuệ nhân tạo phải dán nhãn để nhận dạng". Tuy nhiện đại diện doanh nghiệp và luật sư cũng chỉ ra nghĩa vụ dán nhãn nhận dạng sản phẩm công nghệ số tạo ra bởi hệ thống trí tuệ nhân tạo tại Khoản 1 Điều 63 thiếu tính rõ ràng và có thể không thể thực hiện được về mặt kỹ thuật.
Dự thảo không xác định rõ ai là người chịu trách nhiệm thực hiện việc dán nhãn nhận dạng này (nhà phát triển hay nhà cung cấp hệ thống trí tuệ nhân tạo). Hiện cũng không rõ khái niệm "sản phẩm công nghệ số tạo ra bởi hệ thống trí tuệ nhân tạo" có bao gồm các phân tích, suy luận, đưa ra các nội dung, dự báo, khuyến nghị, quyết định (hay gọi chung là đầu ra/output) của các hệ thống trí tuệ nhân tạo hay không. Trong một số trường hợp, ví dụ như hệ thống trí tuệ nhân tạo tạo ra kết quả bằng văn bản, việc dán nhãn nhận dạng là không khả thi về mặt kỹ thuật.
Công ty Luật TNHH Quốc tế BMVN cũng đề nghị xem xét lại khái niệm "hệ thống trí tuệ nhân tạo" tại Khoản 6 Điều 3 vì có thể chưa phù hợp với các khái niệm đang được quốc tế áp dụng rộng rãi. “Chúng tôi kính đề nghị Ban soạn thảo, Cơ quan thẩm tra tham khảo các định nghĩa tiêu chuẩn được sử dụng tạo Sắc lệnh hành pháp của Hoa Kỳ về Hoạt động phát triển và sử dụng trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy (đã được đưa vào triển khai ở nhiều công ty quốc tế), đảm bảo hài hòa về giữa pháp luật Việt Nam và pháp luật quốc tế.