Chuyển tới nội dung
Phát triển AI song hành cùng chính sách an toàn thông tin
Tin tức & Sự kiện

Phát triển AI song hành cùng chính sách an toàn thông tin

31-10-2023
Trí tuệ nhân tạo (AI) đang là tác nhân chính trong công tác chuyển đổi bộ mặt của lĩnh vực công nghệ, thúc đẩy mạnh mẽ lên nền công nghiệp thế giới hiện nay.

Nhưng việc phát triển quá nhanh và mạnh của AI đang để lại nhiều vấn đề cho hệ thống an toàn thông tin (ATTT) hiện nay. Một trong những vấn đề quan trọng cần thay đổi gấp rút là các quy định chính sách để phát triển nhưng phải bảo đảm ATTT trước cơn bão AI.

Đại dịch COVID-19 đang đánh dấu cuộc sống của chúng ta theo những cách chưa từng có. Một số tổ chức đang sử dụng AI để đánh giá và khám phá các loại thuốc hoặc phương pháp điều trị có thể giúp điều trị COVID-19 và phát triển vaccine.

AI cũng đã được sử dụng trong các ứng dụng khác ngoài y tế. AI đã hỗ trợ việc phòng chống lại thông tin sai lệch bằng cách khai thác phương tiện truyền thông xã hội, theo dõi các tin giật gân hoặc đáng báo động và xác định các tài liệu tham khảo trực tuyến đáng tin cậy.

Tuy nhiên, trong cuộc chiến chống lại COVID-19, AI cũng đã bộc lộ những hạn chế cố hữu của hệ thống. Các hệ thống hiện tại học máy bằng cách tìm các mẫu trong dữ liệu và để đạt được hiệu suất mong đợi, các hệ thống phải được đào tạo với đầu vào chất lượng cao để mô hình hóa các hành vi mong muốn, nhưng để tìm kiếm những mẫu đầu vào có số lượng và chất lượng cao như kì vọng là một điều khó khăn.

Trong ATTT mạng, AI có thể trao quyền và phá vỡ ATTT mạng do cần được cung cấp đầy đủ lượng dữ liệu cần thiết để xem xét và giải quyết các vấn đề một cách chính xác nhất, cũng vậy các rủi ro vốn dĩ phụ thuộc vào cách thức hoạt động và học hỏi của AI và thường là kết quả của sự phức tạp của công nghệ AI cơ bản.

Vì vậy, để thúc đẩy phát triển AI và sinh thái kỹ thuật số một cách thuận lợi và an toàn, chúng ta cần thúc đẩy xây dựng song hành các chiến lược phát triển AI và các chính sách an toàn thông tin AI phù hợp với các chiến lược đó.

Chiến lược, chính sách phát triển AI trên thế giới

Các nhà lãnh đạo G20 đã hoan nghênh các Nguyên tắc AI của G20 vào năm 2019 trong bối cảnh các ứng dụng mới và đang nổi lên của các hệ thống AI đang phát triển. Ví dụ, trong giao thông vận tải, các phương tiện tự hành là một lĩnh vực nghiên cứu và thử nghiệm tích cực, với các lợi ích tiềm năng về chi phí, an toàn và môi trường. Trí tuệ nhân tạo trong khoa học có tiềm năng đã được chứng minh để tăng tốc khám phá, tạo điều kiện thuận lợi cho khả năng tái sản xuất và giảm chi phí thử nghiệm.

Một ví dụ gần đây về điều này là khám phá của các nhà nghiên cứu tại MIT về một loại kháng sinh mới có thể tiêu diệt vi khuẩn kháng thuốc. Các nhà nghiên cứu đã sử dụng AI để sàng lọc (chỉ trong vòng vài giờ) một thư viện kỹ thuật số lớn gồm các hợp chất dược phẩm hiện có. AI trong lĩnh vực dịch vụ tài chính có thể phát hiện gian lận, đánh giá mức độ tín nhiệm và tự động hóa giao dịch. Tư pháp hình sự, an toàn thông tin, tiếp thị và quảng cáo, và nhiều hoạt động khác hiện sử dụng hệ thống AI.

Đồng thời, việc hoạch định chính sách AI ở các nước G20 đang trong giai đoạn thử nghiệm và đổi mới. Các quốc gia đang tích cực tìm cách xây dựng các chiến lược và chính sách quốc gia nhằm khai thác tiềm năng của AI đồng thời giảm thiểu các thách thức và tăng sự tin tưởng của dân chúng vào công nghệ này. Chỉ trong vài tháng đầu năm 2020, một số sáng kiến chính sách lớn đã được các nền kinh tế G20 đưa ra tham vấn cộng đồng, bao gồm dự thảo bản ghi nhớ của Mỹ về hướng dẫn điều chỉnh các ứng dụng AI và Sách trắng về AI của Ủy ban châu Âu.

ai-va-attt-2.png

Cả hai yếu tố trên đều ủng hộ những nỗ lực mạnh mẽ và chặt chẽ nhằm thúc đẩy việc thực hiện các Nguyên tắc AI của G20. Với phạm vi rộng lớn của các ứng dụng AI và các tác động tiềm tàng liên quan đến các nền kinh tế và xã hội, điều quan trọng là phải thúc đẩy các nỗ lực hướng tới các hệ thống AI lấy con người làm trung tâm, minh bạch, mạnh mẽ và có trách nhiệm, đồng thời xây dựng một môi trường chính sách hỗ trợ tiến bộ đó.

Đây là thời điểm thuận lợi, vì việc thử nghiệm chính sách hiện đang được tiến hành mang lại cơ hội lớn cho các phương pháp đổi mới và học hỏi đồng đẳng từ các phương pháp của các quốc gia trong G20, đồng thời có tiềm năng định hình các hướng phát triển AI toàn cầu. Do tính tập trung của dữ liệu đối với các hệ thống AI, mối quan tâm của G20 đặt trọng tâm vào các vấn đề về truy cập và chia sẻ dữ liệu, cũng như luồng dữ liệu.

Để tận dụng thời điểm này và sự hỗ trợ của các Nguyên tắc AI G20, DETF dưới thời Chủ tịch Ả Rập Saudi năm 2020 đã biên soạn các ví dụ về chính sách quốc gia để thúc đẩy các Nguyên tắc AI của G20 nhằm cung cấp cho các quốc gia các ví dụ về chiến lược và chính sách quốc gia khi họ triển khai các Nguyên tắc AI của G20 trong bối cảnh quốc gia cụ thể của họ.

Argentina, Úc, Brazil, Canada, Trung Quốc, Pháp, Đức, Indonesia, Ý, Nhật Bản, Hàn Quốc, Mexico, Liên bang Nga, Ả Rập Saudi, Thổ Nhĩ Kỳ, Vương quốc Anh, Mỹ và Ủy ban châu Âu đã gửi phản hồi và các quốc gia khách mời G20 và đại diện khu vực cũng đưa ra phản hồi, bao gồm Singapore, Tây Ban Nha, Thụy Sĩ và Các tiểu vương quốc Ả Rập Thống nhất về các chính sách của họ.

Tăng trưởng bao trùm, phát triển bền vững và tốt đẹp

Nguyên tắc này thừa nhận rằng việc hướng dẫn phát triển và sử dụng AI hướng tới sự thịnh vượng và kết quả có lợi cho con người là ưu tiên hàng đầu. AI đáng tin cậy có thể đóng một vai trò quan trọng trong việc thúc đẩy tăng trưởng toàn diện, phát triển bền vững và các mục tiêu phát triển toàn cầu. Nó có thể được tận dụng vì lợi ích xã hội và đóng góp đáng kể vào việc đạt được các Mục tiêu Phát triển Bền vững (SDGs) trong các lĩnh vực như giáo dục, y tế, giao thông, nông nghiệp, môi trường và các thành phố bền vững, cùng các lĩnh vực khác.

Vai trò quản lý này nên cố gắng giải quyết những lo ngại về bất bình đẳng và rủi ro mà sự chênh lệch trong tiếp cận công nghệ làm gia tăng sự chia rẽ hiện có trong và giữa các nước phát triển và đang phát triển. Nguyên tắc này cũng thừa nhận rằng các hệ thống AI có thể duy trì những thành kiến hiện có và có tác động khác nhau đối với các nhóm dân số dễ bị tổn thương và ít được đại diện, chẳng hạn như dân tộc thiểu số, phụ nữ, trẻ em, người già và người có trình độ học vấn thấp hoặc tay nghề thấp. Tác động khác nhau là một rủi ro đặc biệt ở các nước có thu nhập thấp và trung bình. Nguyên tắc này nhấn mạnh rằng AI cũng có thể và nên được sử dụng để trao quyền cho tất cả các thành viên trong xã hội, giúp giảm bớt những thành kiến.

Ngoài ra, quản lý có trách nhiệm là sự thừa nhận rằng trong suốt vòng đời của hệ thống AI, các tác nhân AI và các bên liên quan có thể và nên khuyến khích sự phát triển và triển khai AI để đạt được kết quả có lợi với các biện pháp bảo vệ thích hợp. Việc xác định những kết quả có lợi này và cách tốt nhất để đạt được chúng sẽ được hưởng lợi từ sự hợp tác đa ngành và đa bên liên quan. Một cuộc đàm luận công khai có ý nghĩa, đầy đủ thông tin và tổ chức nhiều lần bao gồm tất cả các bên liên quan có thể nâng cao sự tin tưởng và hiểu biết của dân chúng về AI.

Theo hướng này, DETF đã tham gia Đàm luận về AI vào năm 2020, để ủng hộ cuộc thảo luận về các ứng dụng AI nhằm thúc đẩy việc sử dụng AI đáng tin cậy. Phần này tập trung vào cách thức mà các ứng dụng AI ở cấp ngành (bao gồm cả giáo dục và y tế) duy trì trách nhiệm quản lý AI một cách đáng tin cậy. Những thách thức nảy sinh khi các lĩnh vực này sử dụng AI ngày càng nhiều và vai trò của các chính phủ nhất quán với các Nguyên tắc để giải quyết những thách thức này.

Liên minh châu Âu - Nguyên tắc Đạo đức về AI

Nguyên tắc Đạo đức của Liên minh châu Âu về AI, được phát triển bởi Nhóm chuyên gia cấp cao về AI, đặt ra bảy yêu cầu chính mà các hệ thống AI phải đáp ứng để được coi là đáng tin cậy. Bao gồm các khái niệm như cơ quan con người và giám sát cũng như tính minh bạch, Hướng dẫn không chỉ thúc đẩy Nguyên tắc AI của G20 về tăng trưởng toàn diện mà còn hỗ trợ các nguyên tắc dựa trên giá trị cốt lõi khác.

Vào tháng 4/2019, EU đã công bố Nguyên tắc đạo đức về AI, sau quá trình phát triển của Nhóm chuyên gia cấp cao về AI (HLEG) gồm 52 thành viên và tham vấn cộng đồng rộng rãi. Nguyên tắc nêu rõ rằng AI đáng tin cậy phải hợp pháp (tôn trọng tất cả các luật và quy định hiện hành), đạo đức (tôn trọng các nguyên tắc và giá trị đạo đức) và mạnh mẽ (cả từ góc độ kỹ thuật trong khi tính đến môi trường xã hội). Họ đặt ra bảy yêu cầu chính mà các hệ thống AI phải đáp ứng:

- Cơ quan con người giám sát;
- Độ bền và an toàn kỹ thuật;
- Quyền riêng tư và quản trị dữ liệu;

- Tính minh bạch;
- Đa dạng, không phân biệt đối xử và công bằng;
- Phúc lợi xã hội và môi trường; - Trách nhiệm giải trình.

Mặc dù các yêu cầu này nhằm áp dụng cho tất cả các hệ thống AI trong các môi trường và ngành khác nhau, nhưng bối cảnh cụ thể mà chúng được áp dụng cần được tính đến để triển khai cụ thể và tương xứng, áp dụng phương pháp tiếp cận dựa trên tác động. Theo hướng này, Hướng dẫn cung cấp một danh sách đánh giá vận hành các yêu cầu chính và đưa ra hướng dẫn để triển khai chúng trong thực tế. Danh sách đánh giá này đã được thử nghiệm từ tháng 6 - 12/2019, với các bên liên quan được mời kiểm tra và cung cấp phản hồi, đồng thời, một tài liệu sửa đổi sẽ được ban hành vào năm 2020. Hướng dẫn sẽ đóng vai trò là đầu vào cho khung pháp lý khả thi về AI.

Sách trắng về AI: Cách tiếp cận xuất sắc và tin cậy của châu Âu

Ủy ban châu Âu đang tư vấn về các lựa chọn chính sách để đạt được hai mục tiêu là thúc đẩy việc sử dụng AI và giải quyết các rủi ro liên quan đến việc sử dụng nhất định công nghệ này. Tập trung vào việc tạo điều kiện cho sự phát triển trí tuệ nhân tạo đáng tin cậy và an toàn ở châu Âu, Sách trắng có định hướng mạnh mẽ về tăng trưởng toàn diện, phát triển bền vững và hạnh phúc, cũng như đóng góp vào một hệ sinh thái AI mạnh mẽ.

Vào ngày 19/2/2020, Ủy ban châu Âu đã xuất bản Sách trắng nhằm thúc đẩy một hệ sinh thái xuất sắc và tin tưởng vào AI của châu Âu. Thời gian tham vấn kéo dài đến ngày 14/6/2020. Sách Trắng cho rằng một cách tiếp cận chung của châu Âu đối với AI là cần thiết để đạt đủ quy mô và tránh sự phân mảnh của thị trường chung. Nó cũng đề xuất rằng việc đưa ra các sáng kiến quốc gia có thể gây nguy hiểm cho sự chắc chắn về mặt pháp lý, làm suy yếu lòng tin của người dân và ngăn cản sự xuất hiện của một ngành công nghiệp năng động ở châu Âu.

Sách trắng trình bày các lựa chọn chính sách để cho phép phát triển AI một cách đáng tin cậy và an toàn ở châu Âu, hoàn toàn tôn trọng các giá trị và quyền của công dân EU, đồng thời xây dựng thêm trên kết hợp chính sách rộng lớn của châu Âu, việc xây dựng chính là:

- Khung chính sách đặt ra các biện pháp để liên kết các nỗ lực ở cấp độ châu Âu, quốc gia và khu vực. Trong quan hệ đối tác giữa khu vực tư nhân và khu vực công, mục tiêu của khuôn khổ là huy động các nguồn lực để đạt được một “hệ sinh thái xuất sắc” dọc theo toàn bộ chuỗi giá trị, bắt đầu từ nghiên cứu và đổi mới, đồng thời tạo ra các động cơ khuyến khích phù hợp để đẩy nhanh việc áp dụng các giải pháp dựa trên AI, bao gồm cả các doanh nghiệp vừa và nhỏ (SMEs).

- Các yếu tố chính của khung pháp lý tương lai cho AI ở Châu Âu sẽ tạo ra một “hệ sinh thái đáng tin cậy” duy nhất. Điều này sẽ đảm bảo tuân thủ các quy tắc của EU, bao gồm các quy tắc bảo vệ các quyền cơ bản và quyền của người tiêu dùng, đặc biệt đối với các hệ thống AI hoạt động ở EU có rủi ro cao. Bản thân việc xây dựng một hệ sinh thái tin cậy là một mục tiêu chính sách, mang lại cho người dân sự tự tin để tiếp nhận các ứng dụng AI và mang lại cho các công ty và tổ chức công sự chắc chắn về mặt pháp lý để đổi mới bằng cách sử dụng AI.

Sách trắng đi kèm với Chiến lược châu Âu về dữ liệu, nhằm mục đích giúp châu Âu trở thành nền kinh tế linh hoạt về dữ liệu, an toàn và năng động nhất trên thế giới, trao quyền bằng dữ liệu để cải thiện các quyết định và cải thiện cuộc sống của mọi công dân. Chiến lược đề ra một số biện pháp chính sách, bao gồm huy động đầu tư tư nhân và công cộng, cần thiết để đạt được mục tiêu này.

Bền vững và an toàn thông tin cho AI

a) Các hệ thống AI phải bền vững và an toàn thông tin trong toàn bộ vòng đời của chúng để trong điều kiện sử dụng bình thường, sử dụng hoặc sử dụng sai có thể dự đoán trước hoặc các điều kiện bất lợi khác, chúng hoạt động phù hợp và không gây ra rủi ro an toàn vô lý.

b) Để đạt được mục tiêu này, các tác nhân AI phải đảm bảo khả năng truy xuất nguồn gốc, bao gồm liên quan đến bộ dữ liệu, quy trình và quyết định được đưa ra trong vòng đời của hệ thống AI, để cho phép phân tích kết quả và phản hồi của hệ thống AI đối với yêu cầu, phù hợp với bối cảnh và nhất quán với trạng thái thuộc nghệ thuật.

c) Các tác nhân AI nên, dựa trên vai trò, bối cảnh và khả năng hành động của họ, áp dụng phương pháp quản lý rủi ro có hệ thống cho từng giai đoạn của vòng đời hệ thống AI trên cơ sở liên tục để giải quyết các rủi ro liên quan đến hệ thống AI, bao gồm quyền riêng tư, kỹ thuật số ATTT.

Theo đó, tính bền vững biểu thị khả năng chịu đựng hoặc vượt qua các điều kiện bất lợi, bao gồm cả rủi ro bảo mật kỹ thuật số. Nguyên tắc này nêu rõ thêm rằng các hệ thống AI không được gây ra rủi ro an toàn vô lý bao gồm cả ATTT vật lý, trong điều kiện sử dụng bình thường hoặc có thể thấy trước hoặc sử dụng sai mục đích trong suốt vòng đời của chúng. Các luật và quy định hiện hành trong các lĩnh vực như bảo vệ người tiêu dùng đã xác định những gì cấu thành rủi ro an toàn không hợp lý. Các chính phủ, sau khi tham khảo ý kiến của các bên liên quan, phải xác định mức độ áp dụng đối với các hệ thống AI.

Các tác nhân AI có thể sử dụng phương pháp quản lý rủi ro để xác định và bảo vệ khỏi việc lạm dụng có thể thấy trước, cũng như chống lại các rủi ro liên quan đến việc sử dụng hệ thống AI cho các mục đích khác với mục đích mà chúng được thiết kế ban đầu. Các vấn đề về tính bền vững và ATTT của AI được liên kết với nhau. Ví dụ: bảo mật kỹ thuật số có thể ảnh hưởng đến sự an toàn của các sản phẩm được kết nối như ô tô và thiết bị gia dụng nếu rủi ro không được quản lý phù hợp.

Hai cách quan trọng để duy trì các hệ thống AI bền vững và ATTT là:

- Truy xuất nguồn gốc: giống như khả năng giải thích, truy xuất nguồn gốc có thể giúp phân tích và tìm hiểu kết quả của hệ thống AI, là một cách để thúc đẩy trách nhiệm giải trình. Khả năng theo dõi khác với khả năng giải thích ở chỗ trọng tâm là duy trì hồ sơ về các đặc điểm dữ liệu, chẳng hạn như siêu dữ liệu, nguồn dữ liệu và làm sạch dữ liệu, chứ không nhất thiết phải là chính dữ liệu. Trong đó, truy xuất nguồn gốc có thể giúp hiểu được kết quả, ngăn ngừa những sai lầm trong tương lai và cải thiện độ tin cậy của hệ thống AI.

đến hành vi và kết quả của hệ thống. Việc ghi lại các quyết định quản lý rủi ro được đưa ra ở mỗi giai đoạn vòng đời có thể góp phần thực hiện các nguyên tắc minh bạch và trách nhiệm giải trình khác.

Kết luận

Giải quyết các thách thức về an toàn thông tin của các hệ thống AI phức tạp là rất quan trọng để củng cố niềm tin vào AI, đặt ưu tiên cho việc thúc đẩy Nguyên tắc AI của G20. Các vấn đề của AI có mối liên hệ với nhau và có tác động đến cuộc sống hàng ngày cũng như các hoạt động kinh tế và xã hội quan trọng.

Ví dụ: bảo mật kỹ thuật số có thể ảnh hưởng đến độ an toàn của sản phẩm nếu các sản phẩm được kết nối như ô tô không người lái hoặc thiết bị gia dụng hỗ trợ AI không đủ an toàn trong suốt vòng đời của chúng; tin tặc có thể kiểm soát chúng và thay đổi cài đặt từ xa. Ngay cả khi hoạt động của một hệ thống chỉ gây ra tác hại nhỏ, nó vẫn có thể yêu cầu độ ổn định cao nếu tác hại này xảy ra trên một số lượng lớn người hoặc lĩnh vực với các tác động gây gián đoạn và đáng kể chung.

Ngày nay, với sự bùng nổ của công nghệ số, sự phát triển mạnh mẽ của AI trên toàn cầu thì sự tin cậy và việc bảo đảm an toàn thông tin luôn được đặt lên hành đầu. Từ những phân tích nêu trên, chúng ta thấy được các quốc gia đi đầu trên thế

- Phương pháp quản lý rủi ro: Các hệ thống AI đặt ra những rủi ro tiềm ẩn đối với quyền con người, tính toàn vẹn của cơ thể, quyền riêng tư, sự công bằng, bình đẳng và mạnh mẽ. Bảo vệ khỏi những rủi ro này đòi hỏi chi phí, bao gồm cả việc xây dựng tính minh bạch, trách nhiệm giải trình, an toàn và bảo mật trong các hệ thống AI.

Các cách sử dụng AI khác nhau có những rủi ro khác nhau và một số rủi ro đòi hỏi tiêu chuẩn phòng ngừa hoặc giảm thiểu cao hơn những rủi ro khác. Phương pháp quản lý rủi ro, được áp dụng trong suốt vòng đời của hệ thống AI, có thể giúp xác định, đánh giá, ưu tiên và giảm thiểu rủi ro tiềm ẩn có thể ảnh hưởng xấu giới về công nghệ đang đặt trọng tâm đánh giá và hướng dẫn sự phát triển của công nghệ AI lên cấp độ toàn cầu.

Tài liệu tham khảo:
1. Ban Giám đốc Khoa học, Công nghệ và Đổi mới của Tổ chức
Hợp tác và Phát triển Kinh tế (OECD), “Examples of ai national
policies” (tài liệu đầu vào cho các cuộc thảo luận trong Nhóm
công tác về Kinh tế Kỹ thuật số G20), 2020.
2. Centre for European Policy Studies (CEPS), “Artificial
Intelligence and Cybersecurity - Technology, Governance
and Policy Challenges” (Final Report of a CEPS Task Force),
Brussels, 5/2021.

Nguồn: Trích báo ICT Việt nam 

2 bầu chọn / Điểm: 1