
Ngày 1 tháng 3 năm 2026, Luật Trí tuệ nhân tạo 2025 chính thức có hiệu lực. Đây là bộ luật đầu tiên tại Việt Nam quy định riêng về AI, gồm 8 chương và 35 điều. Và câu hỏi không còn là “AI có ảnh hưởng gì đến mình không?” mà là “Mình đã tuân thủ chưa?”
Nhiều doanh nghiệp vẫn nghĩ AI là chuyện của các tập đoàn công nghệ lớn. Nhưng thực tế phức tạp hơn vậy. Nếu bạn đang dùng chatbot chăm sóc khách hàng, hệ thống đề xuất sản phẩm, hay thậm chí phần mềm tuyển dụng có tích hợp AI — bạn đã nằm trong phạm vi điều chỉnh của luật này.
Những điều bị cấm mà nhiều doanh nghiệp chưa biết
Luật quy định rõ ràng các hành vi bị nghiêm cấm. Trong đó, đáng chú ý nhất với doanh nghiệp là việc sử dụng AI để tạo nội dung giả mạo người thật hoặc sự kiện thật nhằm lừa dối, thao túng nhận thức. Nghe có vẻ xa vời? Hãy nghĩ đến deepfake. Một video giả mạo CEO của bạn đang phát biểu — và nó được tạo bằng công cụ AI mà chính công ty bạn triển khai. Trách nhiệm thuộc về ai?
Ngoài ra, luật cấm thu thập và xử lý dữ liệu cá nhân trái phép thông qua hệ thống AI, cấm khai thác điểm yếu của nhóm dễ bị tổn thương như trẻ em, người cao tuổi, người khuyết tật. Đây không chỉ là vấn đề đạo đức — giờ đây là vấn đề pháp lý.
Hệ thống AI “rủi ro cao” nghĩa là gì?
Luật phân loại hệ thống AI theo mức độ rủi ro. Nếu doanh nghiệp bạn triển khai AI trong y tế, tài chính, giáo dục hay tuyển dụng, rất có thể hệ thống đó rơi vào nhóm “rủi ro cao”. Điều này đồng nghĩa với yêu cầu tuân thủ nghiêm ngặt hơn, bao gồm đánh giá tác động, giám sát liên tục, và minh bạch trong cách AI đưa ra quyết định.
Theo khảo sát gần đây, gần 78% doanh nghiệp Việt Nam cho biết sẽ tăng ngân sách an ninh mạng trong năm tới. Nhưng bao nhiêu trong số đó đã tính đến chi phí tuân thủ AI? Đây là khoảng trống lớn mà nhiều công ty chưa nhận ra.
Doanh nghiệp vừa và nhỏ bị ảnh hưởng nặng nhất
Các tập đoàn lớn có đội ngũ pháp lý và công nghệ riêng để rà soát. Nhưng SME thì sao? Một công ty logistics 50 nhân viên dùng AI để tối ưu tuyến đường giao hàng, hay một startup fintech dùng machine learning để đánh giá tín dụng — họ có biết mình đang vận hành hệ thống AI theo định nghĩa của luật không?
Tiến sĩ Tirumala từ Đại học RMIT đã cảnh báo rằng thời gian chuẩn bị cho SME là không đủ, đặc biệt với những doanh nghiệp đã triển khai hệ thống AI từ trước khi luật ra đời. Và đó chính là vấn đề — bạn không thể tuân thủ cái mà bạn không biết mình đang dùng.
Ba bước doanh nghiệp cần làm ngay
Thứ nhất, kiểm kê hệ thống AI đang sử dụng. Liệt kê tất cả phần mềm, công cụ, nền tảng có tích hợp AI trong vận hành. Từ CRM đến chatbot, từ hệ thống phân tích dữ liệu đến công cụ tự động hóa marketing. Nhiều doanh nghiệp sẽ ngạc nhiên khi nhận ra mình đang dùng AI ở bao nhiêu điểm chạm.
Thứ hai, đánh giá mức độ rủi ro. Dựa trên phân loại của luật, xác định hệ thống nào thuộc nhóm rủi ro cao. Ưu tiên những hệ thống xử lý dữ liệu cá nhân hoặc đưa ra quyết định ảnh hưởng trực tiếp đến con người.
Thứ ba, xây dựng chính sách AI nội bộ. Không cần phải là tài liệu 200 trang. Nhưng doanh nghiệp cần có quy định rõ ràng về ai được phép triển khai AI, dữ liệu nào được phép sử dụng, và quy trình giám sát ra sao. Đây cũng là bước chuẩn bị tốt nếu bạn đang hướng đến ISO 27001 hay các chuẩn quản trị AI như ISO 42001.
Cơ hội đi kèm thách thức
Đừng chỉ nhìn luật như gánh nặng. Việt Nam đã chính thức công nhận AI là lĩnh vực ưu tiên phát triển quốc gia. Các dự án AI có thể được hưởng ưu đãi thuế, hỗ trợ vốn từ các chương trình công nghệ cao, và tiếp cận nguồn lực đào tạo từ nhà nước. Doanh nghiệp nào tuân thủ sớm sẽ có lợi thế cạnh tranh rõ ràng — cả về pháp lý lẫn uy tín thương hiệu.
Tại Evvo Labs, chúng tôi đã làm việc với nhiều doanh nghiệp Việt Nam trong lĩnh vực an ninh mạng và tuân thủ. Từ đánh giá rủi ro hệ thống, xây dựng chính sách bảo mật, đến triển khai ISO 27001 — chúng tôi hiểu rằng tuân thủ không phải đích đến, mà là hành trình liên tục. Nếu bạn cần hỗ trợ rà soát mức độ sẵn sàng trước Luật AI, hãy liên hệ với đội ngũ của chúng tôi tại evvolabs.vn/contact.