10 nội dung đáng chú ý tại dự thảo Luật Trí tuệ nhân tạo
Bên cạnh sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI) hiện nay với vô vàn những cơ hội tiềm năng trong đa dạng lĩnh vực và đời sống xã hội, trí tuệ nhân tạo vẫn đang là thách thức tại Việt Nam khi chúng ta vẫn chưa ban hành một văn bản pháp luật hoàn chỉnh, minh thị, rõ ràng để điều chỉnh. Chính vì vậy, Dự thảo Luật Trí Tuệ Nhân Tạo vừa được Quốc Hội công bố vào nửa cuối năm 2025 là "phát súng" đầu tiên, cho thấy quyết tâm của Chính phủ trong việc tạo ra một hành lang pháp lý toàn diện, đảm bảo các hoạt động liên quan đến lĩnh vực AI được lành mạnh, an toàn.
1. 8 nguyên tắc cơ bản trong hoạt động trí tuệ nhân tạo
Điều 4 dự thảo Luật Trí tuệ nhân tạo quy định các nguyên tắc trong hoạt động trí tuệ nhân tạo gồm:
- Lấy con người làm trung tâm: AI phải phục vụ và hỗ trợ con người, tôn trọng nhân phẩm, quyền tự do, quyền riêng tư cũng như các giá trị văn hóa, đạo đức của dân tộc Việt Nam.
- Bảo đảm trách nhiệm và kiểm soát của con người: Con người giữ quyền kiểm soát và chịu trách nhiệm cuối cùng đối với mọi quyết định, hành vi và hậu quả trong toàn bộ vòng đời của hệ thống AI - từ thiết kế, phát triển đến vận hành và sử dụng.
- An toàn, công bằng và minh bạch: Hệ thống AI phải được phát triển, vận hành an toàn, bảo mật, công bằng, không phân biệt đối xử và bảo đảm minh bạch, phù hợp với các nguyên tắc đạo đức quy định tại Chương V của Luật.
- Tuân thủ pháp luật và chuẩn mực đạo đức: Mọi hoạt động liên quan đến AI phải tuân thủ Hiến pháp, pháp luật Việt Nam và các điều ước quốc tế mà Việt Nam là thành viên; đồng thời bảo đảm chuẩn mực đạo đức, phong tục, tập quán và giá trị văn hóa Việt Nam.
Tổ chức, cá nhân có liên quan phải thực hiện Khung đạo đức trí tuệ nhân tạo quốc gia do Chính phủ ban hành.
- Tự chủ quốc gia và hội nhập quốc tế: Phát triển năng lực tự chủ về công nghệ, hạ tầng, dữ liệu và mô hình AI chiến lược; đồng thời chủ động hợp tác, hội nhập quốc tế phù hợp với thông lệ và nguyên tắc quốc tế.
- Phát triển xanh, bao trùm và bền vững: Hoạt động AI phải hướng tới phát triển kinh tế - xã hội bền vững, tiết kiệm năng lượng, bảo vệ môi trường, bảo đảm công bằng xã hội và góp phần gìn giữ bản sắc văn hóa dân tộc.
- Quản lý dựa trên rủi ro: Nhà nước áp dụng biện pháp quản lý tương ứng với cấp độ rủi ro của từng hệ thống AI. Chỉ quản lý bắt buộc đối với hệ thống có nguy cơ gây hại rõ ràng; đồng thời khuyến khích thử nghiệm có kiểm soát, tiêu chuẩn mở và quy tắc ứng xử tự nguyện.
- Thúc đẩy đổi mới sáng tạo: Nhà nước xây dựng môi trường pháp lý và chính sách thuận lợi, an toàn để khuyến khích nghiên cứu, khởi nghiệp, sáng tạo và thương mại hóa các sản phẩm, dịch vụ AI.
2. Việt Nam phân loại, giám sát hệ thống trí tuệ nhân tạo theo 4 cấp độ
Theo Điều 10 của dự thảo Luật, hệ thống trí tuệ nhân tạo được chia làm 04 cấp độ rủi ro:
- Rủi ro không chấp nhận được
- Là những hệ thống trí tuệ nhân tạo có khả năng gây tổn hại nghiêm trọng, không thể khắc phục đối với quyền con người, an ninh quốc gia, trật tự hoặc an toàn xã hội hoặc bị sử dụng cho các hành vi vi phạm pháp luật.
- Các hệ thống AI thuộc nhóm này bị cấm tuyệt đối triển khai hoặc lưu hành.
- Rủi ro cao
- Là hệ thống có khả năng gây tổn hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của cá nhân, tổ chức hoặc các lợi ích công cộng quan trọng khác.
- Nhóm này phải chịu sự giám sát chặt chẽ của cơ quan quản lý và chỉ được phép hoạt động khi đáp ứng đầy đủ điều kiện pháp lý, kỹ thuật và đạo đức.
- Rủi ro trung bình
- Là các hệ thống không thuộc nhóm rủi ro cao, nhưng trong quá trình sử dụng có thể gây nhầm lẫn, lừa dối hoặc thao túng người dùng do họ không nhận biết được bản chất AI của hệ thống hoặc nội dung do AI tạo ra (trừ trường hợp hiển nhiên trong bối cảnh sử dụng).
- Với nhóm này, Nhà nước khuyến khích cảnh báo rõ ràng, minh bạch thông tin để người dùng nhận biết.
- Rủi ro thấp
- Là hệ thống không thuộc các nhóm trên, có mức độ tác động thấp, ít ảnh hưởng đến quyền con người hoặc trật tự xã hội.
- Nhóm này được khuyến khích phát triển, thử nghiệm và thương mại hóa theo cơ chế quản lý linh hoạt, tạo điều kiện thúc đẩy đổi mới sáng tạo.
3. Các hệ thống AI có rủi ro không chấp nhận được bị cấm đưa ra thị trường
Theo Điều 14 dự thảo Luật Trí tuệ nhân tạo các hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được sau đây bị cấm đưa ra thị trường:
- Cấm tuyệt đối các hệ thống AI có rủi ro không chấp nhận được:
- Các hệ thống trí tuệ nhân tạo thuộc nhóm rủi ro không chấp nhận được bị cấm đưa ra thị trường hoặc đưa vào sử dụng dưới bất kỳ hình thức nào.
- Những hệ thống này được xác định là có khả năng gây tổn hại nghiêm trọng, không thể khắc phục đối với quyền con người, an ninh quốc gia, trật tự và an toàn xã hội.
- Các loại hệ thống AI rủi ro không chấp nhận được bị cấm, gồm:
- Hệ thống thao túng nhận thức hoặc hành vi của con người một cách có chủ đích, khiến người dùng mất khả năng tự chủ, gây tổn hại về thể chất hoặc tinh thần.
- Hệ thống AI được các cơ quan nhà nước, tổ chức hoặc doanh nghiệp sử dụng để chấm điểm tín nhiệm xã hội của cá nhân, dẫn đến việc đối xử bất lợi hoặc không công bằng trong các bối cảnh xã hội không liên quan.
- Hệ thống lợi dụng điểm yếu của nhóm người cụ thể (như người cao tuổi, người khuyết tật, người có hoàn cảnh kinh tế - xã hội khó khăn) để tác động hành vi gây tổn hại cho chính họ hoặc người khác.
- Hệ thống xây dựng hoặc khai thác cơ sở dữ liệu nhận dạng khuôn mặt quy mô lớn bằng việc thu thập trái pháp luật hình ảnh khuôn mặt từ Internet hoặc hệ thống camera giám sát.
- Hệ thống sản xuất hoặc phổ biến nội dung giả mạo (deepfake) do AI tạo ra mà có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội hoặc an ninh quốc gia.
- Hệ thống phát triển hoặc sử dụng trí tuệ nhân tạo nhằm chống phá Nhà nước Cộng hòa xã hội chủ nghĩa Việt Nam.
4. Xây dựng Cổng thông tin điện tử một cửa về Trí tuệ nhân tạo
Theo khoản 1 Điều 8, Cổng thông tin điện tử một cửa về trí tuệ nhân tạo được thiết lập và vận hành nhằm:
- Cung cấp dịch vụ công trực tuyến trong lĩnh vực AI;
- Hỗ trợ quản lý nhà nước và tạo thuận lợi cho tổ chức, cá nhân trong hoạt động trí tuệ nhân tạo;
- Đóng vai trò trung tâm điều phối, kết nối dữ liệu và thủ tục hành chính AI toàn quốc.
Cổng này là hệ thống thành phần chuyên biệt trong Cổng Dịch vụ công quốc gia, bảo đảm khả năng kết nối - chia sẻ - đồng bộ dữ liệu với các cơ sở dữ liệu quốc gia và chuyên ngành liên quan.
Cổng một cửa về AI sẽ cung cấp ít nhất 7 nhóm dịch vụ trọng yếu sau:
- Tiếp nhận, theo dõi, trả lời tham vấn về phân loại, quản lý rủi ro và nghĩa vụ tuân thủ của hệ thống AI.
- Tiếp nhận, xử lý hồ sơ đăng ký hệ thống AI, đánh giá sự phù hợp, tiền kiểm và các thủ tục hành chính liên quan.
- Đăng ký tham gia thử nghiệm có kiểm soát (sandbox) theo Điều 33 Luật Trí tuệ nhân tạo.
- Cung cấp thông tin, hướng dẫn, công cụ tra cứu về pháp luật, tiêu chuẩn, quy chuẩn, tài liệu kỹ thuật.
- Tiếp nhận báo cáo sự cố, phản hồi sau khi đưa hệ thống ra thị trường.
- Tích hợp thanh toán phí, lệ phí theo pháp luật về phí, lệ phí và giao dịch điện tử.
- Cung cấp API mở và dữ liệu công khai về:
- Các hệ thống AI đã được cấp phép,
- Hệ thống đã đánh giá sự phù hợp,
- Hệ thống vi phạm hoặc bị thu hồi theo quy định pháp luật.
5. Các chính sách hỗ trợ doanh nghiệp trong lĩnh vực trí tuệ nhân tạo
Theo Điều 37 dự thảo Luật Trí tuệ nhân tạo, doanh nghiệp hoạt động trong lĩnh vực AI (trí tuệ nhân tạo) sẽ được hưởng nhiều chính sách ưu đãi và hỗ trợ đặc thù nhằm thúc đẩy đổi mới sáng tạo, phát triển công nghệ lõi và xây dựng hệ sinh thái AI tại Việt Nam. Cụ thể:
1. Doanh nghiệp vừa và nhỏ, doanh nghiệp khởi nghiệp trong lĩnh vực trí tuệ nhân tạo là đối tượng được ưu tiên hưởng các cơ chế hỗ trợ sau:
- Hưởng các chính sách ưu đãi, hỗ trợ chung quy định tại Điều 32 và được ưu tiên tiếp cận nguồn vốn từ Quỹ Phát triển Trí tuệ nhân tạo Quốc gia.
- Miễn hoặc giảm phí đánh giá sự phù hợp đối với hệ thống AI có rủi ro cao, đồng thời được ưu tiên tham gia cơ chế thử nghiệm có kiểm soát (regulatory sandbox)
- Được cung cấp miễn phí và hướng dẫn sử dụng các bộ hồ sơ, biểu mẫu tuân thủ rút gọn do cơ quan có thẩm quyền ban hành, giúp giảm bớt thủ tục hành chính.
2. Doanh nghiệp có năng lực nghiên cứu - phát triển (R&D) và đóng vai trò dẫn dắt hệ sinh thái AI quốc gia sẽ được hỗ trợ có điều kiện khi tham gia các dự án nghiên cứu công nghệ lõi, với yêu cầu bảo đảm:
- Cạnh tranh lành mạnh,
- Tiêu chuẩn mở,
- An ninh và an toàn trong ứng dụng.
3. Doanh nghiệp đã hoàn thành thử nghiệm có kiểm soát theo quyết định của cơ quan có thẩm quyền sẽ được hưởng các quyền lợi sau:
- Được áp dụng thủ tục rút gọn trong việc đăng ký, đánh giá sự phù hợp, cấp phép hoặc công bố sản phẩm.
- Sử dụng dữ liệu, kết quả thử nghiệm hợp lệ để thay thế hoặc tích hợp vào các thành phần hồ sơ tương ứng.
- Miễn thực hiện lại các thử nghiệm còn hiệu lực, trừ trường hợp có thay đổi đáng kể về mô hình, công nghệ hoặc phát sinh sự cố nghiêm trọng ảnh hưởng đến an toàn, an ninh hoặc quyền của người sử dụng.
6. Chính thức đưa ra cơ chế thử nghiệm có kiểm soát (sandbox)
Theo Điều 33 dự thảo Luật Trí tuệ nhân tạo, cơ chế thử nghiệm có kiểm soát được thiết lập nhằm:
- Tạo điều kiện cho tổ chức, cá nhân thử nghiệm công nghệ, mô hình kinh doanh mới liên quan đến AI trong phạm vi giới hạn về thời gian, quy mô và đối tượng;
- Được giám sát trực tiếp bởi cơ quan quản lý nhà nước có thẩm quyền, đảm bảo an toàn dữ liệu, quyền con người và quyền lợi hợp pháp của các bên liên quan.
- Về thời hạn và điều kiện thử nghiệm
- Thời hạn tối đa: 24 tháng kể từ ngày được phê duyệt.
- Gia hạn: được phép gia hạn một lần, tối đa 12 tháng, nếu có đánh giá kết quả khả thi và kiểm soát được rủi ro.
- Trong quá trình thử nghiệm, doanh nghiệp phải tuân thủ đầy đủ quy định về bảo mật, dữ liệu, an toàn hệ thống và nghĩa vụ báo cáo cho cơ quan quản lý.
Kết quả thử nghiệm được xác nhận hợp lệ là căn cứ để doanh nghiệp được rút gọn thủ tục cấp phép chính thức, công bố hợp quy hoặc triển khai hệ thống trên quy mô lớn.
7. Ban hành Khung đạo đức quốc gia về trí tuệ nhân tạo
Một trong những điểm nhấn của dự thảo Luật Trí tuệ nhân tạo 2025 là quy định về Khung đạo đức quốc gia về AI. Đây sẽ là chuẩn mực đạo đức chung cho cơ quan, tổ chức, cá nhân trong quá trình nghiên cứu, phát triển và sử dụng hệ thống AI tại Việt Nam.
Theo Điều 38 và Điều 39 Dự thảo Luật, việc nghiên cứu, phát triển, cung cấp và triển khai hệ thống AI phải tuân thủ bốn nguyên tắc đạo đức cốt lõi:
- Công bằng, không phân biệt đối xử - giảm sai lệch dữ liệu, mô hình và thuật toán;
- Minh bạch và có thể giải thích - kết quả và hành vi của hệ thống phải được giải thích ở mức phù hợp;
- An toàn, tin cậy - đảm bảo khả năng phục hồi, chống chịu khi có sự cố;
- Trách nhiệm giải trình - xác định rõ chủ thể chịu trách nhiệm trong toàn bộ vòng đời của hệ thống.
Theo khoản 2 Điều 39, Thủ tướng Chính phủ sẽ ban hành và định kỳ cập nhật Khung đạo đức trí tuệ nhân tạo quốc gia, phù hợp tiến bộ khoa học và thông lệ quốc tế.
Các bộ, cơ quan ngang bộ căn cứ Khung này ban hành hướng dẫn áp dụng trong từng ngành, lĩnh vực chuyên biệt.
Điều 40 và 41 quy định: khi sử dụng AI trong quản lý, cung cấp dịch vụ công hoặc ra quyết định hành chính, cơ quan nhà nước phải công khai mục đích, phạm vi và đánh giá tác động trước khi triển khai.
Không được để AI ra quyết định tự động hoàn toàn nếu có thể ảnh hưởng trực tiếp đến quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Báo cáo đánh giá tác động phải được công khai một phần hoặc toàn bộ, đảm bảo giám sát xã hội và trách nhiệm giải trình.
8. Cấm ra quyết định tự động hoàn toàn bằng AI trong hành chính công
Khoản 2 Điều 40 quy định rõ:
"2. Không được sử dụng hệ thống trí tuệ nhân tạo để đưa ra quyết định tự động hoàn toàn trong các trường hợp có thể ảnh hưởng trực tiếp đến quyền, nghĩa vụ hoặc lợi ích hợp pháp của tổ chức, cá nhân, trừ khi luật chuyên ngành có quy định khác. Người có thẩm quyền trong cơ quan nhà nước phải chịu trách nhiệm cuối cùng đối với quyết định đó."
Điều này có nghĩa:
- Trí tuệ nhân tạo chỉ được phép hỗ trợ, không được thay thế hoàn toàn vai trò con người trong các quyết định hành chính có tác động đến người dân.
- Người có thẩm quyền trong cơ quan nhà nước phải chịu trách nhiệm cuối cùng về mọi quyết định, kể cả khi hệ thống AI được sử dụng làm công cụ phân tích hoặc đề xuất.
Bên cạnh đó, trước khi triển khai hệ thống trí tuệ nhân tạo có rủi ro cao hoặc có khả năng tác động đáng kể đến quyền con người, công bằng xã hội hoặc quyền riêng tư, cơ quan Nhà nước phải thực hiện đánh giá tác động.
9. Trách nhiệm pháp lý và cơ chế bồi thường rủi ro trong hoạt động trí tuệ nhân tạo
Một trong những nội dung được quan tâm của Dự thảo Luật Trí tuệ nhân tạo 2025 là quy định rõ trách nhiệm pháp lý, bồi thường và cơ chế bảo hiểm rủi ro khi hệ thống AI gây thiệt hại.
Theo Điều 44 Dự thảo Luật, nhà cung cấp và bên triển khai hệ thống AI rủi ro cao phải chịu trách nhiệm pháp lý khách quan (tức không cần chứng minh lỗi) nếu hệ thống gây thiệt hại cho tổ chức, cá nhân.
Đây được xem là trường hợp cụ thể của “bồi thường do nguồn nguy hiểm cao độ” theo Bộ luật Dân sự.
- Nhà cung cấp và bên triển khai bắt buộc phải:
- Mua bảo hiểm trách nhiệm dân sự, hoặc
- Áp dụng biện pháp bảo đảm tài chính tương đương để bảo đảm khả năng bồi thường.
- Chính phủ sẽ quy định mức bảo hiểm tối thiểu và cơ chế kiểm soát việc thực hiện.
Theo Điều 45, trong trường hợp người bị thiệt hại đã chứng minh được thiệt hại thực tế và mối liên hệ với hệ thống AI, Tòa án có thể suy đoán mối quan hệ nhân quả giữa thiệt hại và hoạt động của hệ thống, trừ khi bên cung cấp chứng minh được ngược lại.
Còn Điều 46 quy định, khi thiệt hại xảy ra mà không thể xác định lỗi cụ thể của bên nào, nhà phát triển - nhà cung cấp bên triển khai đều phải chịu trách nhiệm liên đới bồi thường cho người bị thiệt hại.
Sau khi bồi thường, các bên có quyền yêu cầu hoàn trả tương ứng theo mức độ lỗi và kiểm soát rủi ro.
10. Hệ thống AI rủi ro cao đã hoạt động trước 2026 phải đăng ký lại trong 24 tháng
Dự thảo Luật Trí tuệ nhân tạo quy định cụ thể về chính sách chuyển tiếp đối với các hệ thống, mô hình và sản phẩm AI đã được triển khai trước khi Luật có hiệu lực.
Theo Điều 54 dự thảo, các hệ thống trí tuệ nhân tạo rủi ro cao đã được đưa vào sử dụng trước 01/01/2026 (thời điểm Luật có hiệu lực) phải được nhà cung cấp, bên triển khai rà soát, tự đánh giá và hoàn thành đăng ký, đánh giá sự phù hợp trong thời hạn 24 tháng kể từ ngày các quy định về phân loại và quản lý hệ thống trí tuệ nhân tạo theo rủi ro có hiệu lực.
Chính phủ quy định chi tiết việc áp dụng đối với hệ thống đã hoạt động, bảo đảm lộ trình chuyển tiếp phù hợp, không gây gián đoạn hoạt động hợp pháp.
Công ty AGS cảm ơn bạn đã dành thời gian để đọc bài viết này. Hy vọng bạn đã có được những thông tin bổ ích. Hãy tiếp tục theo dõi chúng tôi để cập nhật thêm nhiều thông tin cũng như cơ hội việc làm tại AGS nhé.
Thông tin khác
Thông tin tuyển dụng và hướng dẫn

AGS luôn mở rộng cánh cửa cho những ứng viên muốn thử thách bản thân trong lĩnh vực Kế toán - Kiểm toán - Ngôn ngữ Nhật - Pháp lý - Nhân sự. Xem chi tiết bài viết để biết thêm về Thông tin tuyển dụng tại AGS bạn nhé!
Nguồn: https://luatvietnam.vn/linh-vuc-khac/noi-dung-dang-chu-y-tai-du-thao-luat-tri-tue-nhan-tao-883-104573-article.html