Khi công nghệ AI phát triển với tốc độ chóng mặt, các câu hỏi về đạo đức và pháp lý liên quan đến quyền của AI ngày càng trở nên cấp thiết, đặc biệt trong bối cảnh Việt Nam đang đẩy mạnh chuyển đổi số và ứng dụng AI.
Việt Nam xác định AI là động lực chủ chốt của tăng trưởng kinh tế, với Chiến lược Quốc gia về AI đặt mục tiêu đưa đất nước vào nhóm bốn quốc gia hàng đầu ASEAN về nghiên cứu và ứng dụng AI vào năm 2030. Tuy nhiên, việc áp dụng nhanh chóng cũng kéo theo nhiều thách thức, bao gồm vấn đề từ quản trị đạo đức, lỗ hổng pháp lý và rủi ro với quyền con người và ổn định xã hội.
Giải quyết những vấn đề này đòi hỏi các giải pháp chủ động nhằm đảm bảo phát triển AI vừa có trách nhiệm vừa bền vững. Tiến sĩ James Kang, giảng viên cấp cao tại Đại học RMIT Việt Nam, nêu bật tầm quan trọng của việc quản lý AI dựa trên các nguyên tắc đạo đức cùng khung pháp lý rõ ràng như các yếu tố chủ chốt giúp Việt Nam điều hướng trong bối cảnh AI đang không ngừng phát triển.
Quyền AI đề cập đến các quyền đạo đức và pháp lý có thể cấp cho các hệ thống AI khi chúng phát triển. Mặc dù AI đã tiến bộ trong xử lý ngôn ngữ và ra quyết định, việc xác định quyền của AI vẫn là vấn đề phức tạp và mang tính suy đoán. Hiểu về quyền của công nghệ này là chìa khóa giúp Việt Nam xác định hướng tiếp cận AI. Liệu AI tiên tiến có nên có quyền riêng tư hay quyền tự do không? Liệu chúng có thể đòi hỏi các quyền này như con người không? Trả lời những câu hỏi này sẽ giúp xác định vị trí của AI trong các khuôn khổ đạo đức, pháp lý và xã hội tại Việt Nam.
Việc phân biệt rõ ràng AI hẹp, được lập trình cho những nhiệm vụ cụ thể, và AI tổng quát, có khả năng mô phỏng nhận thức của con người, là điều cần thiết. Dù các cuộc thảo luận về quyền của AI thường xoay quanh AI tổng quát, phần lớn lo ngại về mặt đạo đức và pháp lý hiện nay lại liên quan đến AI hẹp trong tự động hóa, ra quyết định và xử lý dữ liệu.
Quản lý đạo đức AI phải bảo đảm các nguyên tắc về phẩm giá, công bằng và tự chủ. Nếu không có quy định, AI dễ bị lạm dụng, thao túng hoặc gây ra hậu quả ngoài ý muốn. Ví dụ, một hệ thống AI được để tuyển dụng có thể tăng nặng thành kiến nếu được huấn luyện trên dữ liệu thiếu cân bằng, làm trầm trọng thêm bất bình đẳng xã hội. Giải quyết các rủi ro này là điều hết sức quan trọng để đảm bảo sự công bằng cho lực lượng lao động Việt Nam.
Thao túng tâm lý là một mối lo khác khi AI có thể hấp thu những thành kiến độc hại nếu liên tục tiếp xúc với dữ liệu đầu vào thiên lệch. Nếu không có cơ chế bảo vệ, AI có thể trở thành công cụ phát tán thông tin sai lệch hoặc phục vụ cho các mục đích phi đạo đức.
Khung pháp lý của Việt Nam, được thiết kế cho con người, đang gặp khó khăn khi xử lý tính phức tạp do AI mang lại. Nếu AI tạo ra sản phẩm trí tuệ, ai sẽ là người sở hữu - bản thân AI đó, người phát triển nên AI hay doanh nghiệp? Dù Việt Nam chưa có luật riêng cho AI, Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân đặt ra các yêu cầu nghiêm ngặt về quyền riêng tư, gián tiếp định hình cách triển khai các ứng dụng AI. Trong khi đó, Chính phủ cũng đang xem xét các chính sách về trách nhiệm pháp lý và tính minh bạch của AI.
Hệ thống pháp lý của Việt Nam phải thích ứng để theo kịp với tốc độ phát triển của công nghệ này. Việc trao tư cách pháp nhân cho AI, tương tự như cho doanh nghiệp, đặt ra nhiều câu hỏi về trách nhiệm pháp lý và quyền sở hữu. Liệu AI tự vận hành có phải chịu trách nhiệm giải trình nếu gây thiệt hại không? Nếu AI vận hành mà không có chủ sở hữu rõ ràng thì ai sẽ chịu trách nhiệm? Những vấn đề này nêu bật tính cấp thiết phải cập nhật các quy định về AI nhằm bảo đảm trách nhiệm giải trình và giám sát đạo đức.
Từ góc độ pháp lý và đạo đức, Việt Nam có thể củng cố hướng phát triển AI bằng cách tiếp tục những nỗ lực hiện có và đồng thời giải quyết các thách thức chính. Bằng cách học hỏi từ các mô hình toàn cầu và điều chỉnh phù hợp với điều kiện trong nước, Việt Nam có cơ hội dẫn đầu trong việc tích hợp AI có trách nhiệm.
Việt Nam đã bước đầu tích hợp giáo dục AI vào chương trình đào tạo với các cơ sở như Đại học RMIT cung cấp những chương trình chuyên sâu về lĩnh vực này. Việc mở rộng nỗ lực này thông qua các chính sách hỗ trợ như ưu đãi cho các cơ sở đào tạo và triển khai các khóa học trực tuyến dễ tiếp cận sẽ đảm bảo sự công bằng trong tiếp cận giáo dục và thúc đẩy bình đẳng. Những chiến lược như vậy vừa phù hợp với quy định pháp luật liên quan đến AI, vừa góp phần xây dựng lực lượng lao động sẵn sàng cho thời đại AI.
Để thúc đẩy đổi mới sáng tạo, Việt Nam có thể hỗ trợ các doanh nghiệp khởi nghiệp bằng những khoản tài trợ nghiên cứu và thành lập các vườn ươm công nghệ. Hợp tác giữa doanh nghiệp trong và quốc tế nên ưu tiên yếu tố minh bạch và đạo đức trong việc phát triển và ứng dụng AI. Một khung pháp lý vững chắc là điều cần thiết để bảo vệ quyền lợi, duy trì niềm tin xã hội và cân bằng giữa đổi mới công nghệ và trách nhiệm giải trình.
Tối ưu hóa việc sử dụng AI mã nguồn mở sẽ giúp phát triển công nghệ với chi phí hợp lý mà không cần phần cứng tiên tiến, miễn là có biện pháp giải quyết các mối nguy an ninh tiềm ẩn. Xây dựng hạ tầng AI trong nước và tăng cường năng lực điện toán đám mây cũng sẽ góp phần củng cố hệ sinh thái AI tại Việt Nam, đồng thời giảm sự phụ thuộc vào nền tảng nước ngoài và bảo đảm chủ quyền số.
Các quy định pháp luật Việt Nam cần phát triển để theo kịp những thách thức đặc thù mà AI mang lại, chẳng hạn như trách nhiệm pháp lý đối với các quyết định tự động, quyền sở hữu trí tuệ đối với sản phẩm do AI tạo ra, hay trách nhiệm giải trình trong các trường hợp AI gây ra hậu quả phi đạo đức. Tham khảo các khuôn khổ như Đạo luật AI của Liên minh châu Âu hay mô hình quản trị AI của Singapore, Việt Nam có thể áp dụng những giải pháp phù hợp, đảm bảo triển khai AI có đạo đức, phù hợp với điều kiện kinh tế xã hội riêng của đất nước.
Bằng cách chủ động giải quyết các thách thức pháp lý và đạo đức nêu trên, Việt Nam có thể có được chiến lược phát triển AI cân bằng, vừa thúc đẩy đổi mới, vừa đảm bảo công bằng, toàn diện và an toàn dữ liệu. Với các chính sách mạnh mẽ và nỗ lực hợp tác, Việt Nam hoàn toàn có thể tạo ra hệ sinh thái AI mạnh mẽ và có trách nhiệm.
Bài: Tiến sĩ James Kang, giảng viên cấp cao về Khoa học máy tính, Khoa Khoa học, Kỹ thuật và Công nghệ, Đại học RMIT Việt Nam
Hình đầu trang: Parradee - stock.adobe.com
Hình đại diện: Parradee - stock.adobe.com
Khi công nghệ AI phát triển với tốc độ chóng mặt, các câu hỏi về đạo đức và pháp lý liên quan đến quyền của AI ngày càng trở nên cấp thiết, đặc biệt trong bối cảnh Việt Nam đang đẩy mạnh chuyển đổi số và ứng dụng AI.
Trong vòng một thập kỷ tới, Agentic AI có thể đảm nhiệm tới 70% công việc văn phòng, định hình lại các ngành nghề bằng những hệ thống thông minh và linh hoạt, có khả năng học hỏi, tiến hóa cũng như giải quyết các vấn đề thực tế phức tạp.
Máy tính lượng tử từ lâu đã được xem là công nghệ tương lai nhưng những đột phá gần đây của Google và Microsoft cho thấy tương lai đó có thể đến nhanh hơn ta tưởng.
Khi trí tuệ nhân tạo (AI) tạo sinh phát triển mạnh mẽ, tiềm năng thúc đẩy đổi mới là không thể phủ nhận nhưng đi kèm với đó là những rủi ro. Từ bê bối deepfake đến thông tin sai lệch do AI tạo ra, công nghệ này đặt ra những thách thức đạo đức nghiêm trọng.