AI có trách nhiệm - xây dựng niềm tin vào chính phủ
Ứng dụng AI hỗ trợ ra quyết định
Khi các chính phủ kết hợp trí tuệ nhân tạo vào việc ra quyết định, kết quả có thể rất tốt. Ví dụ, các chính phủ đã triển khai các hệ thống dựa trên AI một cách hiệu quả để quản lý năng lực của bệnh viện, điều tiết giao thông và xác định cách tốt nhất để phân phối lợi ích xã hội và cung cấp dịch vụ...
Sự khác biệt lớn giữa các hệ thống hoạt động tốt và các hệ thống thất bại là cách chúng được tạo ra và giám sát. Một cách tiếp cận dẫn đến kết quả thành công bao gồm quản trị phù hợp, các quy trình được hình thành chu đáo dựa trên ý kiến đóng góp từ các bên liên quan bị ảnh hưởng và tính minh bạch về vai trò của AI trong việc ra quyết định.
Cách tiếp cận toàn diện như vậy được gọi là là AI có trách nhiệm. Để đạt được điều đó, các chính phủ phải trao quyền lãnh đạo và sử dụng AI để nâng cao khả năng ra quyết định của con người chứ không phải thay thế nó. Cách tiếp cận AI có trách nhiệm phải bao gồm đánh giá thường xuyên, tích hợp với các công cụ và mô hình dữ liệu tiêu chuẩn cũng như kế hoạch cho những sai sót có thể xảy ra.
Các chính phủ có một công cụ mạnh mẽ khác để sử dụng. Họ có thể sử dụng hoạt động mua sắm để thúc đẩy việc áp dụng rộng rãi AI có trách nhiệm. Bằng cách coi việc tuân thủ các nguyên tắc AI có trách nhiệm là điều kiện tiên quyết để đấu thầu các hợp đồng AI trong khu vực công, các cơ quan có thể đảm bảo rằng hệ thống mà họ tạo ra là có đạo đức và minh bạch, đồng thời tích hợp dần AI vào quá trình ra quyết định của khu vực công.
Giá trị của AI có trách nhiệm đối với chính phủ
Khi các chính phủ phải đối mặt với các quy tắc kiểm soát việc sử dụng các công nghệ mới nổi, những chính phủ nuôi dưỡng niềm tin của người dân sẽ có điều kiện tốt hơn để sử dụng AI nhằm cải thiện phúc lợi xã hội. Ngoài việc mang lại lợi ích trực tiếp cho hệ thống AI, các sáng kiến AI có trách nhiệm có thể thúc đẩy tính hợp pháp của chính phủ, tăng cường hỗ trợ cho việc sử dụng AI, đồng thời giúp thu hút và giữ chân những người có kỹ năng số.
Thúc đẩy tính hợp pháp của Chính phủ. Các ứng dụng dựa trên AI chỉ chiếm một phần nhỏ trong tất cả các hệ thống và quy trình của chính phủ, nhưng chúng có tác động rất lớn đến nhận thức của người dân về các tổ chức chính phủ. Việc tạo ra chúng một cách có trách nhiệm có thể khuyến khích niềm tin rằng chính phủ đang phục vụ lợi ích tốt nhất của cá nhân và xã hội. Khi việc sử dụng AI của chính phủ ngày càng tăng và tác động của nó ngày càng lan rộng, lợi ích của việc thực hiện cách tiếp cận có trách nhiệm sẽ tăng lên.
Đặc điểm nổi bật của AI có trách nhiệm là sự phát triển toàn diện. Việc xem xét nhiều quan điểm đảm bảo rằng mô hình hoặc đánh giá dựa trên AI sẽ đối xử công bằng với tất cả các nhóm và không vô tình gây tổn hại cho bất kỳ cá nhân hoặc nhóm nào. Bằng cách tìm kiếm ý kiến đóng góp từ nhiều bên liên quan - các nhóm công dân, giới học thuật, khu vực tư nhân và những bên khác - các chính phủ cũng mang lại sự minh bạch cho quy trình, từ đó có thể xây dựng niềm tin và khuyến khích đối thoại hiệu quả về AI và các công nghệ số khác.
Tăng cường hỗ trợ cho việc sử dụng AI của chính phủ. Trong một nghiên cứu trước đây của Tập đoàn tư vấn Boston BCG, hơn 30% những người được khảo sát cho biết họ thực sự lo ngại về các vấn đề đạo đức liên quan đến việc chính phủ sử dụng AI. Những lo ngại như vậy khiến mọi người có nhiều khả năng không ủng hộ AI. Nếu các chính phủ muốn nhận được lợi ích tiềm năng của AI, họ phải thực hiện các bước để chứng minh rằng có sẵn chuyên môn, quy trình và tính minh bạch cần thiết để giải quyết các vấn đề đạo đức đó.
Chương trình AI có trách nhiệm có thể giảm bớt sự phản đối của công chúng và tạo điều kiện thuận lợi cho các chính phủ theo đuổi việc áp dụng lâu dài các công cụ và dịch vụ AI. Chương trình phải bao gồm một chiến lược truyền thông được thiết kế tốt, nêu chi tiết các bước được thực hiện để đảm bảo rằng AI được cung cấp một cách có trách nhiệm.
Ngày càng nhiều người nhận ra những lợi ích và tác hại tiềm tàng do các công nghệ mới nổi mang lại. Nếu các tổ chức chính phủ được cho là hành động có trách nhiệm, họ sẽ có nhiều giấy phép hơn để triển khai AI nhằm cải thiện hiệu suất của chính mình.
Thu hút và giữ chân nhân viên kỹ thuật số. Trong bối cảnh toàn cầu thiếu hụt nhân tài kỹ thuật số, những người lao động có kỹ năng AI đang có nhu cầu đặc biệt cao. Bởi vì các công ty thuộc khu vực tư nhân có thể trả nhiều tiền hơn nên họ có lợi thế rõ rệt so với chính phủ trong vấn đề tuyển dụng và giữ chân nhân viên. Vì vậy, các chính phủ phải tìm cách khác để cạnh tranh.
Một lựa chọn là trở thành người dẫn đường cho AI có trách nhiệm. Nhân viên công nghệ đặc biệt quan tâm đến ý nghĩa đạo đức của hệ thống mà họ tạo ra. Trong một nghiên cứu về nhân sự công nghệ ở Anh, cứ sáu công nhân AI thì có một người cho biết họ đã rời bỏ công việc thay vì tham gia phát triển các sản phẩm mà họ tin rằng có thể gây hại cho xã hội. Mang lại cơ hội làm việc trong một môi trường quan tâm đến mối quan tâm của nhân viên và người dân và nơi AI rõ ràng được sử dụng vì lợi ích công cộng, có thể thu hút nhiều người có kỹ năng cần thiết hơn vào các công việc trong khu vực công.
Đạt được AI có trách nhiệm
Theo đuổi AI một cách có trách nhiệm không phải là một đề xuất. Các chính phủ có thể nhận ra lợi ích của AI và cung cấp công nghệ một cách có trách nhiệm và có đạo đức. Nhiều người đã thực hiện bước đầu tiên trong việc tạo ra và công bố các nguyên tắc AI. Một bài báo năm 2019 trên tạp chí NatureMachine Intelligence báo cáo rằng 26 cơ quan chính phủ và tổ chức đa quốc gia trên toàn thế giới đã công bố các nguyên tắc AI. Tuy nhiên, đại đa số đều thiếu bất kỳ hướng dẫn nào về cách áp dụng những nguyên tắc này vào thực tế, để lại lỗ hổng có thể làm sâu sắc thêm nhận thức tiêu cực về việc sử dụng AI của chính phủ.
Các chính phủ có thể tạo lộ trình xây dựng chương trình AI có trách nhiệm bằng cách trao quyền lãnh đạo, phát triển các nguyên tắc và chính sách, thiết lập cơ chế quản trị con người cộng với AI, tiến hành đánh giá trường hợp sử dụng, tích hợp các công cụ và phương pháp, cũng như xây dựng và thử nghiệm kế hoạch ứng phó trong trường hợp có sai sót.
Trao quyền lãnh đạo. Các cơ quan chính phủ không hoạt động trong không gian tách biệt. Họ làm việc cùng nhau để phát triển và cung cấp các dịch vụ công, đồng thời họ phải làm việc giữa các phòng ban để phát triển AI có trách nhiệm.
Để quản lý AI một cách có trách nhiệm, chính phủ có thể thành lập một đơn vị lãnh đạo trung ương áp dụng các tiêu chuẩn và cách tiếp cận nhất quán, toàn diện. Đơn vị này có thể nằm ở trung tâm của chính phủ hoặc trong một cơ quan, bộ phận hoặc cơ quan quản lý. Vị trí không quan trọng bằng việc đảm bảo rằng đơn vị có thành viên đa dạng và là cơ quan được công nhận trong việc thiết kế và lãnh đạo mọi nỗ lực AI có trách nhiệm.
Đó có thể là một nhóm chuyên trách mới được thành lập, một đội đặc nhiệm với nhân sự từ khắp chính phủ hoặc kết hợp cả hai. Để đảm bảo liên lạc tốt, mỗi bộ phận hoặc cơ quan nên chỉ định một người liên lạc cho đơn vị lãnh đạo AI có trách nhiệm, đơn vị này phải độc lập.
Bất kể đơn vị AI có trách nhiệm được cấu trúc như thế nào, việc thiết lập có thể mất thời gian do các yêu cầu pháp lý hoặc cần sự phê duyệt của nhà hoạch định chính sách. Để tránh sự chậm trễ, giám đốc phân tích hoặc giám đốc kỹ thuật số có thể được trao quyền tạm thời. Ngân sách hàng năm cũng có thể phải được điều chỉnh để tính toán chi phí, mặc dù có thể tái sử dụng ngân sách hiện có cho các chi phí ban đầu của chương trình.
Xây dựng các nguyên tắc và chính sách. Bất kỳ tổ chức nào cũng có thể mất thời gian và nỗ lực đáng kể để áp dụng các nguyên tắc và chính sách mới. Trong chính phủ, quá trình này đặc biệt khó khăn. Việc thực hiện một chính sách mới có thể bao gồm việc tham vấn với nhiều ban ngành, cơ quan và cơ quan quản lý cũng như phản hồi từ các chuyên gia học thuật, các nhóm công dân, ngành và các bên liên quan bên ngoài khác.
Ví dụ: khi Ban Đổi mới Quốc phòng đề xuất các nguyên tắc đạo đức AI cho Bộ Quốc phòng Hoa Kỳ, nhóm đã thu thập ý kiến đóng góp từ hơn 100 chuyên gia và nhận được gần 200 trang bình luận của công chúng, một quá trình kéo dài hơn 15 tháng. Tuy nhiên, những bước này là cần thiết để đảm bảo tính minh bạch và sự tham gia của các bên liên quan. Nhưng quy trình này không được ngăn cản việc triển khai AI có trách nhiệm cùng với việc áp dụng hệ thống AI sớm - hoặc ngăn cản nó hoàn toàn.
Để tránh sự chậm trễ, các chính phủ có thể sử dụng các nguyên tắc đạo đức hiện có do các tổ chức quốc tế đặt ra trong khi tập trung vào cách điều chỉnh AI có trách nhiệm cho phù hợp với bối cảnh của chính họ. Ví dụ, hơn 50 quốc gia đã áp dụng các nguyên tắc đạo đức AI do Tổ chức Hợp tác và Phát triển Kinh tế tạo ra. Những nguyên tắc này có thể cung cấp hướng dẫn ngắn hạn cho các quốc gia bắt đầu phát triển các chương trình AI có trách nhiệm.
Thiết lập quản trị con người cộng với AI. Các hệ thống AI thành công và có đạo đức kết hợp AI với khả năng phán đoán và kinh nghiệm của con người. Vai trò của mọi người trong việc tạo và triển khai AI có trách nhiệm cần được nâng cao dựa trên công nghệ để đảm bảo rằng công nghệ này không hoạt động mà không được kiểm soát. Các quy trình phù hợp với chuyên môn và hiểu biết của mọi người về bối cảnh sẽ dẫn đến kết quả tốt hơn.
Trong một ví dụ từ khu vực tư nhân, sau khi thiết kế lại mô hình dự báo doanh số bán hàng để người mua có thể sử dụng kinh nghiệm và kiến thức của họ về các xu hướng thời trang sắp tới để điều chỉnh thuật toán, một nhà bán lẻ đã giảm tỷ lệ lỗi dự báo xuống 50%, dẫn đến hơn 100 triệu đô la tiết kiệm mỗi năm.
Các chính phủ phải áp dụng tương tự triết lý con người cộng với AI. Việc phát triển AI phải bao gồm các đánh giá rủi ro toàn diện từ đầu đến cuối, kết hợp các đánh giá và quy trình của con người cho phép bất kỳ ai trong tổ chức hoặc bất kỳ người dùng cuối nào nêu lên mối lo ngại về một vấn đề tiềm ẩn. Vai trò, trách nhiệm và trách nhiệm giải trình cần phải rõ ràng.
Tiến hành đánh giá trường hợp sử dụng. Để đảm bảo rằng việc đánh giá chương trình được tiến hành trên quy mô lớn và có sự giám sát độc lập, việc đánh giá chương trình phải được lãnh đạo bởi đội ngũ lãnh đạo của đơn vị. Việc đánh giá phải diễn ra thường xuyên, với sự tham gia của từng bộ phận nếu một trường hợp sử dụng cụ thể thuộc thẩm quyền của họ.
Tương tự như vậy, công dân nên tham gia vào quá trình khi AI ảnh hưởng đến toàn bộ khu vực bầu cử hoặc xã hội cụ thể; điều này tương tự như việc các công ty yêu cầu phản hồi của khách hàng về sản phẩm đang được phát triển.
Trong những trường hợp như vậy, việc xem xét cần giải quyết những hậu quả tiềm ẩn ngoài ý muốn và đề xuất các biện pháp khắc phục tiềm năng. Việc thu hút người dân tham gia đánh giá sẽ tạo ra niềm tin vào việc sử dụng AI của chính phủ, đồng thời phản hồi thu thập được có thể được sử dụng để cải thiện chất lượng dịch vụ.
Xây dựng và thử nghiệm kế hoạch ứng phó. Sai lầm xảy ra. Vai trò và trách nhiệm, quy trình và thủ tục cần được thiết lập để giải quyết chúng. Kế hoạch truyền thông để cảnh báo công chúng phải là một phần quan trọng của bất kỳ quy trình ứng phó AI có trách nhiệm nào, vì tính minh bạch sẽ giúp xây dựng và duy trì niềm tin về lâu dài.
Một số sai sót gần đây về AI của chính phủ đã trở nên trầm trọng hơn do khả năng giao tiếp hạn chế hoặc kém. Các vấn đề về truyền thông nhấn mạnh sự cần thiết của việc sử dụng AI phải được quản lý bởi các tiêu chuẩn và giám sát chung để mọi vấn đề có thể được giải quyết một cách phối hợp.
Những điều này cũng giúp phổ biến chuyên môn và kiến thức trong toàn bộ chính phủ, cho phép mọi bộ phận học hỏi từ những thành công và thất bại của AI. Các đơn vị AI có trách nhiệm có thể mượn các kế hoạch ứng phó mà chính phủ đã thiết lập ở các lĩnh vực khác, chẳng hạn như các kế hoạch được nhiều khu vực pháp lý áp dụng để thông báo cho công dân về các vi phạm an ninh mạng.
Sử dụng hoạt động mua sắm để thúc đẩy AI có trách nhiệm
Khi nói đến việc thúc đẩy AI có trách nhiệm, các chính phủ có lợi thế chính: số tiền đáng kể mà họ đã chi cho các sản phẩm và dịch vụ AI. Trong năm tài chính 2019, chính phủ Mỹ đã chi khoảng 1,1 tỷ USD cho AI. Năm 2020, chính phủ Anh đã yêu cầu đề xuất các dự án dịch vụ AI trị giá khoảng 266 triệu USD… Khi các chính phủ chi tiêu ở quy mô đó, họ có thể định hình các hoạt động thị trường. Họ có thể sử dụng khả năng chi tiêu của mình để đặt ra và yêu cầu các tiêu chuẩn đạo đức cao của các nhà cung cấp bên thứ ba, giúp thúc đẩy toàn bộ thị trường hướng tới AI có trách nhiệm.
Để bắt đầu, họ có thể giúp nhà cung cấp tiếp cận các cơ hội mua sắm trong khu vực công tùy thuộc vào việc áp dụng các nguyên tắc AI có trách nhiệm. Các cơ quan có thể yêu cầu nhà cung cấp cung cấp bằng chứng cho thấy họ đã thiết lập chương trình AI có trách nhiệm của riêng mình hoặc họ có thể đưa các nguyên tắc AI có trách nhiệm vào tiêu chí đánh giá nhà cung cấp của mình.
Chính phủ Vương quốc Anh đã ban hành các hướng dẫn mua sắm AI và tiêu chí lựa chọn nhà cung cấp bao gồm rõ ràng các nguyên tắc đó. Chính phủ Canada đã thiết lập một danh sách các nhà cung cấp được phê duyệt trước để cung cấp dịch vụ AI có trách nhiệm. Những ví dụ và hướng dẫn này do Diễn đàn Kinh tế Thế giới đưa ra, có thể dùng làm hình mẫu cho các chính phủ khác.
Thực tiễn mua sắm AI có trách nhiệm đòi hỏi các chính phủ phải cân bằng giữa tính minh bạch với nhu cầu bảo vệ bí mật thương mại. Cần có khả năng hiển thị phần mềm, thuật toán và dữ liệu để chính phủ và công chúng có thể xác định và giảm thiểu rủi ro tiềm ẩn. Nhưng các công ty muốn giữ kín thông tin độc quyền để duy trì lợi thế cạnh tranh. Canada đối mặt với thách thức này bằng cách yêu cầu các nhà cung cấp thương mại cho phép chính phủ kiểm tra mã nguồn độc quyền. Đổi lại, chính phủ đảm nhận trách nhiệm duy trì tính bảo mật của mã nguồn và các phương pháp cơ bản.
Khi các chính phủ nắm bắt các công nghệ tiên tiến hơn như AI, họ phải tiếp tục giành được sự tin tưởng của người dân. Bằng cách áp dụng cách tiếp cận có đạo đức và có trách nhiệm, họ có thể củng cố tính hợp pháp của mình trong mắt cử tri, giành được giấy phép triển khai AI theo những cách mang lại giải pháp hiệu quả, năng suất và công bằng hơn./.
Tài liệu tham khảo:
https://www.bcg.com/pu
https://www.qut.edu.au/study/b...
https://www2.deloitte.com/us
Nguồn: Ictvietnam.vn