Giải thích về AI là chìa khóa để tin tưởng vào AI và áp dụng AIOps

18/08/2023
Bookmark Tin tức

Giải thích về AI là chìa khóa để tin tưởng vào AI và áp dụng AIOps

Là con người, những đổi mới thực sự sẽ thay đổi toàn bộ suy nghĩ và cách tiếp cận của chúng ta đối với những thách thức. Một khi chúng ta phát triển nhanh hơn bánh xe hamster đang hoạt động, hiếm khi chúng ta muốn quay lại với nó. Việc thay đổi quỹ đạo có thể liên quan đến một số va chạm và nghi ngờ, nhưng với sự rõ ràng, niềm tin có thể được xây dựng và hình thành thói quen mới. Việc áp dụng hàng không và bay đã mất vài thập kỷ để giành được sự tin tưởng của công chúng và dẫn đến việc thành lập FAA vào năm 1967. Ngày nay, việc sử dụng Trí tuệ nhân tạo (AI) và Máy học (ML) và lời hứa về một tương lai tốt đẹp hơn của chúng đang trải qua một quá trình tương tự. Các quy định dành cho các nền tảng AI giải thích cách họ nhận được câu trả lời cuối cùng sẽ khiến AI trở thành trụ cột trong tương lai của chúng ta.

Một chìa khóa chính cho sự tin tưởng và áp dụng AI thực sự là khái niệm “có thể giải thích được”. Đó là khả năng giải thích cho người dùng, những người thực hành AI và khách hàng về cách một giải pháp AI đạt được câu trả lời ngang bằng với các chuyên gia trong lĩnh vực con người. Điều này rất quan trọng để đạt được sự tự tin và do đó tạo điều kiện thuận lợi cho việc áp dụng AI. Trí tuệ nhân tạo có thể giải thích (XAI) là một điểm tựa mà trí tuệ nhân tạo đáng tin cậy và trí tuệ nhân tạo cho hoạt động (AIOps) xoay quanh. Để được công nhận là một hệ số nhân thực sự trong một ngành, AI không chỉ phải giành được sự tin tưởng mà còn phải duy trì nó, giống như bất kỳ công nghệ mới hoặc thành viên nhóm nào.

Lớp lót AI và ML

Để có bản tóm tắt nhanh về những điều cơ bản của AI/ML, hãy xem loạt video và blog bảng trắng của Juniper Networks, sau đó tiếp tục quay lại để tìm hiểu thêm về cách giải thích AI (XAI) là liên kết còn thiếu trong ngành.

Nói một cách đơn giản, AI là một giải pháp công nghệ thực hiện các nhiệm vụ ngang bằng với các chuyên gia trong lĩnh vực con người. Những nhiệm vụ này trước đây yêu cầu nhận thức của con người. ML là các thuật toán và phương pháp được sử dụng để cung cấp AI.

Trí tuệ nhân tạo có thể giải thích (XAI) là gì?

 AI có thể giải thích hay “khả năng giải thích” là khả năng giải thích bằng thuật ngữ của con người về lý do và cách thức đưa ra các quyết định hoặc hành động mà một dịch vụ hoặc nền tảng AI thực hiện. AI và ML thường được coi là không rõ ràng và không thể giải thích được, nhưng điều này chủ yếu là do các thách thức về khả năng sử dụng và triển khai. Khả năng tiết lộ hoặc suy luận “tại sao” và “làm thế nào” là mấu chốt cho sự tin tưởng, chấp nhận và phát triển của các công nghệ AI. Giống như thuê một nhân viên mới, một trợ lý AI mới phải có được sự tin tưởng và ngày càng hoàn thành tốt công việc của mình trong khi con người dạy nó.

 
Trí tuệ nhân tạo có thể giải thích cho phép các chuyên gia cũng như các chuyên gia ngoài lĩnh vực suy luận về cái gọi là “hộp đen” trí tuệ nhân tạo. Bằng cách chiếu sáng dữ liệu, mô hình và quy trình, người vận hành có thể tăng cường hiểu biết sâu sắc và khả năng quan sát hệ thống. Sau đó, khả năng kiểm soát của hệ thống (hoặc nền tảng) có thể được tối ưu hóa hoặc thay đổi dựa trên lý luận hiệu quả hơn. Quan trọng nhất, bất kỳ sai sót, rủi ro hoặc sai lệch nào đều có thể được truyền đạt dễ dàng hơn và sau đó được giảm nhẹ, giảm thiểu hoặc loại bỏ.

Tại sao AI có thể giải thích lại quan trọng?

AI có thể giải thích giúp loại bỏ nỗi sợ hãi, sự không chắc chắn và nghi ngờ. Nó tạo ra niềm tin và sự tin tưởng vào các nền tảng và giải pháp AI. Về mặt đảm bảo an toàn, bảo mật và dịch vụ, AI có thể giải thích giúp loại bỏ hành vi “rửa AI” trong khi chỉ ra những điểm mạnh và điểm yếu có liên quan của AI. Khả năng giải thích cũng tăng tốc độ thẩm định và trao quyền cho các học viên AI cũng như khách hàng.
 
Khi giao nhiệm vụ cho bất kỳ hệ thống nào tìm câu trả lời hoặc đưa ra quyết định, đặc biệt là những hệ thống có tác động trong thế giới thực, điều quan trọng là phải giải thích cách một hệ thống đi đến kết luận, ảnh hưởng đến kết quả hoặc tại sao nó lại thực hiện một hành động ngay từ đầu. Khả năng giải thích này ngày càng trở nên phù hợp đối với các quyết định hoặc hành động có khả năng tác động xấu đến con người, hành tinh hoặc lợi nhuận về mặt thương mại.

Không gian an toàn cho AI

Hoạt động mạng và CNTT của các nhà cung cấp dịch vụ và doanh nghiệp ngày nay là động mạch và trái tim của Internet. Chúng là nền tảng của nền kinh tế kỹ thuật số của chúng ta và trong thời đại kỹ thuật số này, năng suất của các bộ phận CNTT này gắn liền với tăng trưởng kinh tế của một quốc gia. Sự phức tạp ngày càng tăng của các hệ thống dữ liệu và sự phụ thuộc của chúng đang vượt xa nỗ lực của con người trong việc phản hồi thủ công, trong thời gian thực và trên quy mô lớn. Mặc dù tự động hóa có thể giải quyết một số vấn đề xung quanh công việc của con người và quy mô ngày càng tăng, nhưng nó vẫn dựa vào việc so khớp mẫu rõ ràng và bảo trì thủ công. Điều cần thiết là AI thực sự có thể liên tục học hỏi, đào tạo và tự tối ưu hóa trong khi hỗ trợ các nhóm con người. Mục tiêu là xây dựng và vận hành các mạng theo cách sao cho chúng trở nên hoàn toàn trong suốt đối với người dùng cuối.
 
Các hoạt động CNTT liên quan đến sự kết hợp của cả hệ thống tập trung và phân tán. Mọi thứ từ máy khách đến đám mây đều dựa trên các lớp kết nối vật lý, vận chuyển IP và ngăn xếp ứng dụng. Khi các tầng này chồng chéo và tương tác với nhau, khả năng phục hồi và bảo mật của chúng ngày càng trở nên không thể kiểm soát được đối với các hệ thống giám sát, quản lý và điều phối truyền thống.
 
Cần có các công cụ và phương pháp tiếp cận mới và đây là lúc khả năng giải thích tạo điều kiện thuận lợi cho việc áp dụng AIOps một cách có trách nhiệm và nhanh chóng. Với các giao thức và cấu trúc dữ liệu được xác định rõ ràng, trong một miền hoàn toàn liên quan đến khả năng kết nối, khả năng tiếp cận và đảm bảo dịch vụ, AI có thể đạt được những bước tiến đáng kinh ngạc mà không sợ bị phân biệt đối xử hoặc thiên vị của con người. Khi được giao nhiệm vụ với một không gian vấn đề trung lập, việc khắc phục sự cố, đảm bảo và tối ưu hóa là những thách thức chắc chắn mà AIOps có thể chấp nhận một cách có trách nhiệm.

Độ tin cậy trong AI

Làm thế nào các tổ chức có thể xây dựng niềm tin vào AI?

Niềm tin không phải là nhị phân. Niềm tin là một sự liên tục. Nó được xây dựng theo từng lớp theo thời gian và phần lớn dựa trên sự tích lũy kinh nghiệm và kết quả trước đó. Sự tin tưởng thường đòi hỏi sự sẵn sàng mở rộng phạm vi theo từng bước nhỏ hơn là những bước nhảy vọt. Lòng tin có thể mong manh và thoáng qua nếu các hành động hoặc kết quả không như mong đợi, và nó có xu hướng giảm đi nếu không đưa ra được lý do nào cho các hành động trước đó. Niềm tin cũng bao gồm mức độ chấp nhận rủi ro phụ thuộc vào khả năng thành công hay thất bại. Niềm tin là một hành trình phức tạp và liên tục bất kể lời hứa được đưa ra hay ý định tốt.
 
Tính minh bạch có thể thúc đẩy lòng tin, nhưng chính khả năng giải thích mới tạo điều kiện thuận lợi cho điều đó. Con người sợ hãi những điều chưa biết và sự không chắc chắn gây ra lo lắng. Sự tự tin và an tâm đi kèm với sự rõ ràng. Phát triển niềm tin vào một nền tảng AI có nghĩa là tìm hiểu và hiểu nó. Từ dữ liệu được sử dụng, đến kỹ thuật tính năng và đào tạo, đến phạm vi và tác động của các quyết định hoặc hành động, giải pháp AI càng nhất quán và dễ giải thích thì chúng ta càng ít sợ điều chưa biết và không tin tưởng vào nó. Vì vậy, nếu một nền tảng AI có thể dạy chúng ta về chính nó đồng thời thể hiện các hành động nhất quán và có thể giải thích được, thì chúng ta có nhiều khả năng sẽ tương tác và đón nhận nó hơn.
 
Một trong những điều kiện tồn tại và tự nhiên sâu sắc nhất của chúng ta là muốn biết điều gì đang xảy ra và tại sao. Đó là cốt lõi của con người chúng ta và cách chúng ta tham gia và tiến lên trên thế giới. Chúng ta thường cố gắng để cảm thấy mình có quyền kiểm soát, nhưng khi cảm giác này không còn nữa, thì điều đó thật đáng lo ngại và bất an. Nếu chúng tôi thuê ngoài các hành động hoặc quyết định cho bên thứ ba hoặc AI, chúng tôi muốn có khả năng hiểu được cái gì và quan trọng hơn là lý do để giữ được lòng tin. Khi chúng tôi tìm hiểu về bất kỳ công nghệ hoặc cải tiến mới nào, chúng tôi bắt đầu bằng cách cố gắng hiểu những điều cơ bản, điểm mạnh và điểm yếu của nó cũng như bất kỳ rủi ro tiềm ẩn nào. Nếu AI không thể giải thích được, thì sẽ có những nghi ngờ nội tại và ngay lập tức về khả năng sử dụng và độ tin cậy của nó. Nếu các thực thể thương mại không tuân theo các nguyên tắc AI như khả năng giải thích, thì chúng ta nên đặt niềm tin vào đâu và ai chịu trách nhiệm về việc gì?

AI có thể hiểu được

Liên quan đến khả năng giải thích là khái niệm “khả năng diễn giải”. Khả năng giải thích hoặc hiểu kết quả của một mô hình sau khi thực tế không quan trọng lắm mà là hiệu quả của mô hình ML và mức độ nó có thể liên kết nguyên nhân với kết quả. Các kỹ thuật ML đơn giản hơn như hồi quy tuyến tính và cây quyết định được coi là dễ hiểu hơn, cũng như các mô hình mạng thần kinh sử dụng các tính năng đầu vào và trọng số đã học để đưa ra dự đoán.

Tăng cường niềm tin và trách nhiệm giải trình