Quản lý AI ở Việt Nam: Tìm lời giải cho bài toán của tương lai
Cuộc đổ bộ của "cơn bão" AI thế hệ mới
2023 là năm trí tuệ nhân tạo (AI) thế hệ mới trở thành chủ đề được nhiều quốc gia quan tâm. Mở màn bằng sự xuất hiện của chatbot đình đám ChatGPT (chương trình dựa trên AI, được thiết kế nhằm mô phỏng lại các cuộc trò chuyện giữa người với người thông qua nền tảng Internet).
ChatGPT được công ty OpenAI có trụ sở tại San Francisco cho ra mắt vào ngày 30/11/2022. Công ty phát hành dịch vụ miễn phí ra công chúng, với chiến lược thu hút người sử dụng trước, thu lợi nhuận sau.
Là một chatbot tiên tiến, ChatGPT được huấn luyện khả năng trò chuyện dựa trên một lượng thông tin khổng lồ, bao gồm vô vàn các cuốn sách, bài báo, thông tin lưu trữ, mã nguồn và các loại nội dung khác nhau. ChatGPT từ phiên bản mà người dùng miễn phí được tiếp cận đã có khả năng tạo văn bản chứa nội dung hồi đáp những câu hỏi người dùng đặt ra cho nó (còn gọi là prompt), với thông tin chi tiết, đa dạng và phong cách diễn đạt cực kỳ phong phú, linh hoạt như người thật. Ngoài ra, ChatGPT còn có khả năng dịch thuật, viết cách loại nội dung sáng tác khác nhau, theo đủ các phong cách, bên cạnh những tính năng tiên tiến khác.
Các ưu điểm nêu trên khiến cho chỉ 4 ngày sau thời điểm ra mắt, tức vào ngày 4/12/2022, ChatGPT đã có hơn một triệu người dùng. Tới ngày 31/1/2023, tức chỉ 2 tháng kể từ khi ra mắt, ChatGPT đã cán mốc 100 triệu người dùng. Đây là một thành tích "vô tiền khoáng hậu". Theo trang tin Reuters, nền tảng chia sẻ video ngắn TikTok cũng mất tới 9 tháng sau thời điểm phát hành toàn cầu mới cán mốc 100 triệu người dùng; mạng xã hội Instagram mất 2,5 năm, còn ứng dụng dịch thuật Google Translate mất 6,5 năm.
Người dùng tại Việt Nam, tất nhiên không nằm ngoài xu hướng chung. Các nhóm tự phát hứng thú với việc sử dụng ChatGPT đã nhanh chóng xuất hiện trên nhiều nền tảng mạng xã hội như Facebook, Reddit... Ở đó người dùng chia sẻ nhau cách thức đăng nhập vào hệ thống ChatGPT (bởi thời điểm đầu năm nay, người dùng Việt Nam chưa được OpenAI cung cấp dịch vụ chính thức), cách gõ lệnh prompt để ChatGPT có các phản hồi hiệu quả, cách sử dụng ChatGPT phục vụ cho công việc và thậm chí là những cách thức kiếm tiền mới với công cụ này.
Nhưng giống như mọi điều mới mẻ xuất hiện, luôn có mặt tối kèm theo những yếu tố tích cực. Dù thể hiện năng lực vượt trội trong vai trò một chatbot thông minh, ChatGPT cũng gây lo ngại về vấn đề đạo đức và gian lận.
Cụ thể vào tháng 2 năm nay, trang tin Forbes đã phỏng vấn luật sư Margaret Esquenet thuộc Công ty luật Finnegan, Henderson, Farabow, Garrett & Dunner, LLP và được cho biết, luật pháp nước Mỹ không bảo vệ quyền tác giả đối với các tác phẩm không do con người sáng tác. Nói một cách khác, trong tình huống của ChatGPT, các tác phẩm do chatbot này tạo ra sẽ không thể được cấp bản quyền. Tất cả các tác phẩm của AI đều sẽ trở thành tác phẩm thuộc sở hữu công cộng.
Đó là chưa kể tới việc ChatGPT còn bị cáo buộc đã "chôm chỉa" ý tưởng của nhiều người để đưa vào các câu trả lời cho những prompt mà người dùng đưa ra. Và những tác động xấu của ChatGPT chưa dừng lại ở đó. Chatbot này bị cáo buộc đã trở thành công cụ xâm phạm tính liêm chính trong hoạt động nghiên cứu, học tập.
Hồi tháng 1 năm nay, trong một bài viết đăng trên tạp chí New York Post, một giảng viên đại học ở Nam Carolina, Mỹ, đã phàn nàn về việc sinh viên của ông sử dụng ChatGPT để viết bài luận cho lớp triết học. Đáng chú ý là do các câu trả lời mà ChatGPT đưa ra gần như không lặp lại nhau nên rất khó để dùng các công cụ kiểm tra đạo văn đang có để phát hiện chiêu trò gian lận.
Ngoài ra, ChatGPT còn bị phát hiện đã cung cấp nhiều thông tin sai lệch, không đúng sự thật, không dẫn nguồn khả tín... cho người dùng. Tại Việt Nam, đặc điểm này đã bị những kẻ xấu lợi dụng để chống phá Nhà nước ta.
Ví dụ rõ ràng nhất là ngay sau khi ChatGPT xuất hiện không lâu, tổ chức khủng bố Việt Tân đã có nhiều bài viết hướng dẫn người dùng sử dụng chatbot này theo những dụng ý xấu. Ví dụ trong một bài viết đăng tháng 2 năm nay, trang chủ của Việt Tân đã kêu gọi người dùng Việt Nam đặt nhiều câu hỏi xuyên tạc về Bác Hồ và Đảng, Nhà nước Việt Nam với ChatGPT. Trang này và một số trang chống phá Việt Nam khác còn chụp hình ảnh "prompt mẫu" và các câu trả lời mà ChatGPT đưa ra để minh họa, dẫn dắt người dùng làm theo ý đồ xấu của chúng.
Sau sự việc này, nhiều tờ báo, trang tin trong nước đã lên tiếng phản bác luận điệu của Việt Tân cũng như các tổ chức chống phá. Nhưng sự việc cũng cho thấy một công cụ AI tiên tiến như ChatGPT cần phải được sử dụng đúng cách để mang lại lợi ích. Bởi nó rất dễ bị biến đổi để trở thành phương tiện gây hại nguy hiểm, bắt đầu từ những việc như lan truyền thông tin giả và sai lạc.
Và ChatGPT chỉ là một trong các hệ thống AI tiên tiến nổi lên trong năm nay. Những cái tên khác còn có AI tạo hình ảnh Midjourney, Stable Diffusion, Adobe Firefly; AI trợ lý ảo Alexa, Google Assistant, ELSA Speak; AI chăm sóc sức khỏe Babylon Health, PathAI, AiCure...
Kinh nghiệm quản lý của các nước
Sự nở rộ của các hệ thống, sản phẩm AI ngoài những lợi ích không thể phủ nhận, đã đặt ra mối lo ngại về những hậu quả khôn lường nếu AI không được kiểm soát, hoặc bị sử dụng cho những mục đích xấu. Nhằm xử lý thách thức này, nhiều nơi đã bắt đầu bàn cách đưa hoạt động phát triển AI vào khuôn khổ.
Vào ngày 26/11 vừa qua, Mỹ và một số nước lớn đã công bố Hướng dẫn phát triển hệ thống AI an toàn. Theo mô tả của giới chức Mỹ, đây là thỏa thuận chi tiết đầu tiên về cách thức bảo đảm công nghệ AI được sử dụng một cách an toàn, đồng thời kêu gọi các công ty công nghệ phải tạo ra các hệ thống AI “an toàn ngay từ khâu thiết kế”.
Thỏa thuận dài 20 trang, được 18 quốc gia phê duyệt, đưa ra một số khuyến nghị chung cho các công ty đang phát triển hoặc triển khai hệ thống AI, bao gồm giám sát hành vi lạm dụng, bảo vệ dữ liệu khỏi bị giả mạo và kiểm tra các nhà cung cấp phần mềm.
Thỏa thuận cảnh báo rằng an ninh và an toàn không nên được xem là yếu tố “cân nhắc thứ yếu” trong hoạt động phát triển AI. Thay vào đó, các công ty nên tạo ra một công nghệ AI “an toàn từ trong thiết kế”.
Thỏa thuận không mang tính ràng buộc, chủ yếu bao gồm các khuyến nghị. Các nước tham gia ký thỏa thuận mới ngoài Mỹ và Anh còn có Đức, Italy, Cộng hòa Séc, Estonia, Ba Lan, Australia, Chile, Israel, Nigeria, Singapore… Theo Giám đốc Cơ quan An ninh Cơ sở Hạ tầng và An ninh mạng Mỹ, bà Jen Easterly, điều quan trọng là rất nhiều quốc gia đã nhất trí với ý tưởng rằng các hệ thống AI cần đặt sự an toàn lên hàng đầu.
Đây chỉ là một trong vài sáng kiến của các chính quyền trên thế giới, mà đạt được sự đồng thuận của nhiều bên, nhằm kiểm soát hoạt động phát triển AI tốt hơn, khi lĩnh vực này đang gây ảnh hưởng ngày càng lớn trong khuôn khổ ngành và rộng hơn là toàn xã hội. Tuy nhiên thỏa thuận mới vẫn chưa động tới nhiều câu khỏi khó, như sử dụng AI sao cho phù hợp, hoặc cách thức thu thập dữ liệu phục vụ hoạt động huấn luyện các AI này.
Ở cấp độ quốc gia và khu vực, vào tháng 7 năm nay, Trung Quốc đã ban hành những quy định đầu tiên về phát triển AI tạo sinh. Theo đó, Trung Quốc khuyến khích các ứng dụng sáng tạo của công nghệ AI tạo sinh trong các ngành và lĩnh vực khác nhau, đồng thời sẽ hỗ trợ các tổ chức công nghiệp, doanh nghiệp, viện giáo dục và nghiên cứu cũng như các tổ chức liên quan khác thực hiện hợp tác trong lĩnh vực này.
Trong khi đó, các cơ quan quản lý sẽ có trách nhiệm thực hiện phân loại và giám sát phân loại các dịch vụ AI tạo sinh; nêu rõ quy định, yêu cầu các nhà cung cấp dịch vụ thực hiện nghĩa vụ bảo mật thông tin trực tuyến, bao gồm bảo vệ thông tin cá nhân của người dùng và thực hiện các biện pháp chặn người dùng chưa đủ tuổi tiếp cận những dịch vụ như vậy.
Trung Quốc cũng ban hành những hướng dẫn cụ thể về nội dung do AI tạo sinh tạo ra. Theo đó, các nội dung này không được đe dọa an ninh quốc gia cũng như cổ xúy cho khủng bố, bạo lực hoặc "hận thù sắc tộc".
Các nhà cung cấp dịch vụ phải gắn nhãn nội dung do AI tạo ra và thực hiện các biện pháp ngăn chặn phân biệt giới tính, tuổi tác và chủng tộc khi thiết kế thuật toán. Bên cạnh đó, các chương trình AI tạo sinh phải được đào tạo trên các nguồn dữ liệu thu thập hợp pháp, không vi phạm quyền sở hữu trí tuệ của người khác.
Tháng 10 năm nay, Tổng thống Mỹ Joe Biden cũng đã ban hành sắc lệnh hành pháp về các tiêu chuẩn an toàn của AI. Sắc lệnh yêu cầu các nhà phát triển hệ thống AI phải công bố kết quả kiểm tra độ an toàn chương trình của họ với Chính phủ Mỹ, trước khi phát hành rộng rãi đến người dùng.
Ngoài ra, các công ty phát triển AI phải thông báo cho Chính phủ Mỹ theo Đạo luật sản xuất quốc phòng (DPA), nếu chương trình đang phát triển gây ra các rủi ro về an ninh quốc gia, nền kinh tế địa phương hoặc ảnh hưởng đến sức khỏe người dùng. Sắc lệnh được đánh giá sẽ giúp giải quyết các rủi ro liên quan đến hóa học, sinh học, phóng xạ, hạt nhân và an ninh mạng do AI gây ra.
Ngày 8/12 vừa qua, Liên minh châu Âu (EU) cũng đã đạt được thỏa thuận sơ bộ về các quy tắc quản lý sử dụng AI. Thỏa thuận bao gồm cách tiếp cận 2 cấp, trong đó yêu cầu minh bạch đối với các mô hình AI nói chung và yêu cầu khắt khe hơn với các mô hình mạnh. Thỏa thuận cũng cấm nhận diện khuôn mặt theo thời gian thực, nhưng có đặt ra một số ngoại lệ để phục vụ công tác an ninh.
EU sẽ tiến hành giám sát thông qua văn phòng AI EU, cơ quan mới trực thuộc Ủy ban Châu Âu (EC). Cơ quan này sẽ có quyền phạt tới 7% doanh thu công ty hoặc 35 triệu euro (37,7 triệu USD) với những bên vi phạm.
Như vậy, có thể thấy thế giới đang bắt đầu hình thành những khung pháp lý đầu tiên để quản lý AI. Các quy định chặt chẽ hơn, cụ thể hơn chắc chắn sẽ xuất hiện trong thời gian tới, để đảm bảo công nghệ tiên tiến này chỉ phục vụ cho mục đích tốt đẹp.
Những thách thức và bước đi của Việt Nam
Câu chuyện quản lý AI là vấn đề Việt Nam cũng đã nhìn thấy. Thực tế chúng ta đã bắt đầu bàn tới vấn đề AI từ trước khi các hệ thống AI tạo sinh "làm mưa làm gió" trong năm 2023.
Từ năm 2018, Việt Nam đã tổ chức sự kiện “Ngày hội Trí tuệ nhân tạo” do Bộ Khoa học và Công nghệ chủ trì. Sự kiện này sau đó diễn ra thường niên, thu hút sự quan tâm của đông đảo các cơ quan ban hành chính sách, quản lý, tập đoàn công nghệ, đơn vị nghiên cứu... cùng chung tay thúc đẩy sự phát triển hệ sinh thái trí tuệ nhân tạo tại Việt Nam.
Năm 2021, Thủ tướng Chính phủ đã ban hành Chiến lược Quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030, với mục tiêu đưa AI trở thành lĩnh vực công nghệ quan trọng của Việt Nam trong cách mạng công nghiệp lần thứ tư.
Đầu năm nay, Bộ Thông tin và Truyền thông cũng đã ban hành Chiến lược phát triển ứng dụng trí tuệ nhân tạo đến năm 2030, trong đó nêu rõ quan điểm, phát triển AI ứng dụng góp phần triển khai thành công kinh tế số, xã hội số, chính phủ số ở Việt Nam. Việc phát triển AI ứng dụng phải lấy con người làm trung tâm, đảm bảo hài hòa các lợi ích mà AI mang lại cho các ngành, lĩnh vực, đảm bảo an toàn cho các sản phẩm, dịch vụ AI, đồng thời không vi phạm các vấn đề đạo đức, chuẩn mực con người khi triển khai AI.
Ngoài các đường hướng chiến lược nêu trên, Việt Nam cũng có nền tảng tốt để phục vụ việc phát triển AI. Theo báo cáo "Chỉ số sẵn sàng AI của Chính phủ năm 2022" do Tổ chức Oxford Insights (Anh) công bố hồi năm ngoái, Việt Nam xếp hạng 55/181 toàn cầu và xếp thứ 6/10 trong ASEAN về chỉ số sẵn sàng AI. Việt Nam được đánh giá có các lợi thế như dân số trẻ, kỹ năng kỹ thuật số cao, có khả năng thích nghi nhanh với các giải pháp kỹ thuật số…
Tuy nhiên phải nhìn nhận một thực tế là so với thế giới, chúng ta vẫn đang ở trong giai đoạn sơ khai về phát triển AI. Theo các chuyên gia, chưa nói tới các hệ thống AI tạo sinh mạnh mẽ mà thế giới đang hướng tới, ngay cả trong hoạt động phát triển AI thông thường, chúng ta vẫn chưa có một hệ sinh thái liên quan mạnh mẽ, cũng như chính sách hỗ trợ phù hợp. Mức độ ứng dụng AI tại Việt Nam còn chưa cao. Nhìn sang các quốc gia khác ở châu Á như Trung Quốc, Hàn Quốc hay Nhật Bản, tất cả đều đã đầu tư vào nghiên cứu và phát triển AI trong nhiều năm qua và đã có thành tựu ở mức độ nhất định.
Chúng ta còn có nhiều khó khăn khác có thể kể tới như thiếu nhân lực chuyên môn, đặc biệt là nguồn chuyên gia về AI. Chúng ta cũng thiếu sự đầu tư một cách hệ thống về cơ sở hạ tầng công nghệ, thiếu sự phối hợp giữa doanh nghiệp, nhà nghiên cứu và Chính phủ. Theo các chuyên gia, việc áp dụng AI đặt ra nhiều vấn đề về quyền riêng tư, an ninh thông tin và trách nhiệm pháp lý. Việt Nam cần thiết lập các quy định pháp lý và khung chính sách rõ ràng để bảo vệ quyền riêng tư và đảm bảo an toàn thông tin.
Nhiều ý kiến trong nước cho rằng Việt Nam cần quan tâm học hỏi nhanh các bài học quản lý AI từ nước ngoài để xây dựng các kế hoạch phát triển, quản lý AI dài hạn. Cần có chính sách khuyến khích doanh nghiệp trong nước thử nghiệm, triển khai ứng dụng AI vào sản xuất, kinh doanh cũng như khảo sát, nghiên cứu các mô hình triển khai thành công trên thế giới để học hỏi và áp dụng tại địa phương.
Một hướng đi nữa cũng được giới trong nghề bàn tới là phát triển những sản phẩm AI đặc thù, sử dụng dữ liệu của Việt Nam để phục vụ riêng cho người Việt. Đây là điều mà các hệ thống AI nước ngoài không thể làm được./.