Hội thảo “Góp ý hoàn thiện dự thảo Luật Trí tuệ nhân tạo”
Cập nhật vào: Thứ năm - 16/10/2025 13:03
Cỡ chữ
Chiều 15/10, Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội phối hợp Bộ Khoa học và Công nghệ cùng Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) tổ chức Hội thảo “Góp ý hoàn thiện dự thảo Luật Trí tuệ nhân tạo”. Sự kiện quy tụ các nhà lập pháp, chuyên gia pháp lý, doanh nghiệp công nghệ và giới học thuật nhằm thảo luận những khía cạnh cốt lõi để luật đi vào cuộc sống: từ nguyên tắc quản trị dựa trên rủi ro, trách nhiệm pháp lý, bảo hiểm, đến hạ tầng dữ liệu – tính toán, nhãn hóa và minh bạch thuật toán. Đồng thuận lớn được ghi nhận là: một đạo luật nền tảng, kịp thời và linh hoạt sẽ đặt nền móng cho hệ sinh thái AI phát triển bền vững, an toàn và nhân văn.

Quang cảnh hội thảo
Phát biểu khai mạc, TS. Trần Văn Khải - Phó Chủ nhiệm Ủy ban - nhấn mạnh AI là công nghệ đột phá của Cách mạng công nghiệp lần thứ tư, đang thẩm thấu mọi lĩnh vực từ sản xuất, kinh doanh, giáo dục, y tế, giao thông đến quốc phòng - an ninh. Ở Việt Nam, AI được xác định là công nghệ ưu tiên, có vai trò then chốt trong chuyển đổi số và nâng cao năng lực cạnh tranh quốc gia. Nghị quyết 57-NQ/TW đặt mục tiêu Việt Nam thuộc nhóm ba nước dẫn đầu Đông Nam Á về R&D AI, làm chủ một số công nghệ chiến lược, đẩy mạnh ứng dụng AI dựa trên dữ liệu lớn ở các ngành, lĩnh vực quan trọng. Tuy nhiên, tốc độ phát triển nhanh của AI cũng kéo theo thách thức pháp lý, đạo đức, an toàn và trách nhiệm, đòi hỏi một hành lang pháp lý “vừa quản lý được rủi ro, vừa nuôi dưỡng đổi mới”.
Từ góc nhìn doanh nghiệp, ông Đậu Anh Tuấn - Phó Tổng Thư ký, Trưởng Ban Pháp chế VCCI - đánh giá việc chủ động xây dựng Luật AI thể hiện tư duy kiến tạo thể chế, đón bắt xu thế và khơi mở không gian đổi mới. Dự thảo đã tiếp cận nhiều chuẩn mực quốc tế: quản lý dựa trên rủi ro, cơ chế thử nghiệm có kiểm soát (sandbox), đề cao đạo đức - quyền con người, quy định về minh bạch, giải trình và gắn nhãn nội dung do AI sinh. Để luật “sống” trong thực tiễn, ông đề nghị đảm bảo tính linh hoạt, giảm tối đa thủ tục cho doanh nghiệp nhỏ và startup; đầu tư nghiêm túc cho hạ tầng dữ liệu và năng lực tính toán - “nhiên liệu” của AI; đồng thời xác định rõ trách nhiệm pháp lý trong toàn chuỗi giá trị, từ nhà phát triển, nhà cung cấp đến người triển khai.
Một điểm được đặc biệt quan tâm là cơ chế trách nhiệm khách quan đối với hệ thống rủi ro cao. VCCI ủng hộ hướng tiếp cận này nhưng đề nghị làm rõ cơ chế bảo hiểm, giới hạn trách nhiệm và tiêu chí phân bổ rủi ro để vừa bảo vệ người dùng, vừa không triệt tiêu động lực sáng tạo. Đây là “ba chốt kỹ thuật” quyết định khả năng thực thi và chi phí tuân thủ của doanh nghiệp.
Về Điều 11 và Điều 15 của dự thảo - yêu cầu hệ thống AI rủi ro cao tự phân loại và tự đánh giá sự phù hợp trước khi đưa ra thị trường hoặc khi có thay đổi đáng kể - luật sư Nguyễn Tuấn Linh (BMVN) cho rằng phạm vi nghĩa vụ đang quá rộng. Nếu buộc nhà cung cấp nền tảng phát triển AI phải phân loại mọi hệ thống do người dùng tạo ra trên nền tảng, yêu cầu này sẽ không khả thi về mặt kỹ thuật, làm tăng chi phí và khiến các nền tảng ngại mở cho cộng đồng nghiên cứu và startup. Ông kiến nghị bổ sung miễn trừ rõ ràng: nhà cung cấp/nhập khẩu nền tảng được miễn nghĩa vụ phân loại đối với mô hình, ứng dụng rủi ro cao do bên thứ ba tự xây dựng; thay vào đó, trách nhiệm trực tiếp thuộc về tổ chức phát triển/triển khai giải pháp cuối cùng.
Ở chiều quản lý tiền kiểm, ông Trần Văn Trí (Công ty Cổ phần Truyền thông Luật Việt Nam) đề nghị áp dụng linh hoạt, tránh kéo dài thời gian đưa sản phẩm ra thị trường trong bối cảnh công nghệ biến đổi theo chu kỳ ngắn. Với nội dung gắn nhãn, cần làm rõ phạm vi, mức độ và ngữ cảnh áp dụng (ví dụ: nội dung do mô hình sinh tổng hợp phục vụ quảng cáo, giáo dục, bầu cử… phải gắn nhãn ở mức nào), đồng thời thống nhất cách thông báo minh bạch (watermark, metadata, hiển thị trực quan) để người dùng nhận biết.
Một nhóm giải pháp hạ tầng được nhấn mạnh: dữ liệu mở - liên thông, trung tâm tính toán hiệu năng cao, điện toán đám mây trong nước và khung bảo vệ dữ liệu cá nhân tương thích quốc tế. Các chuyên gia đề nghị luật hóa nguyên tắc quản trị dữ liệu dựa trên mục đích, tối thiểu hóa, an toàn theo thiết kế, kèm cơ chế cấp phép thử nghiệm dữ liệu trong sandbox cho các dự án AI có lợi ích công cộng (y tế, giáo dục, nông nghiệp). Cùng với đó là cơ chế khuyến khích chia sẻ dữ liệu giữa khu vực công - tư trên nền tảng bảo mật, ẩn danh hóa và kiểm toán độc lập.
Về nguồn nhân lực, hội thảo thống nhất coi đây là “nút cổ chai” lâu dài. Luật cần tạo không gian thể chế cho chương trình liên thông đại học - viện - doanh nghiệp; thúc đẩy chuẩn kỹ năng AI; công nhận mô hình đào tạo theo đơn đặt hàng; khuyến khích mở rộng sandbox học thuật để giảng viên, sinh viên tiếp cận dữ liệu và hạ tầng tính toán. Cơ chế ưu đãi thuế – đặt hàng công cho doanh nghiệp đầu tư R&D AI trong nước cũng được đề xuất, gắn với bộ tiêu chí đánh giá tác động xã hội (an toàn, bao trùm, không phân biệt đối xử).
Ở tầng nguyên tắc, nhiều ý kiến đồng thuận: luật cần khẳng định AI vì con người, bảo đảm quyền riêng tư, không phân biệt đối xử, an toàn - an ninh, minh bạch - giải trình, và tương thích quốc tế để thuận lợi thương mại. Mô hình quản trị nên “rủi ro cao - giám sát chặt; rủi ro thấp - khuyến khích đổi mới”, kèm cơ chế cập nhật động (regulatory update) để theo kịp nhịp phát triển công nghệ mà không phải liên tục sửa luật.
A.T (tổng hợp)
Liên hệ
Tiếng Việt
Tiếng Anh








