Giải thích về AI là chìa khóa để tin tưởng vào AI và áp dụng AIOps
Là con người, những đổi mới thực sự sẽ thay đổi toàn bộ suy nghĩ và cách tiếp cận của chúng ta đối với những thách thức. Một khi chúng ta phát triển nhanh hơn bánh xe hamster đang hoạt động, hiếm khi chúng ta muốn quay lại với nó. Việc thay đổi quỹ đạo có thể liên quan đến một số va chạm và nghi ngờ, nhưng với sự rõ ràng, niềm tin có thể được xây dựng và hình thành thói quen mới. Việc áp dụng hàng không và bay đã mất vài thập kỷ để giành được sự tin tưởng của công chúng và dẫn đến việc thành lập FAA vào năm 1967. Ngày nay, việc sử dụng Trí tuệ nhân tạo (AI) và Máy học (ML) và lời hứa về một tương lai tốt đẹp hơn của chúng đang trải qua một quá trình tương tự. Các quy định dành cho các nền tảng AI giải thích cách họ nhận được câu trả lời cuối cùng sẽ khiến AI trở thành trụ cột trong tương lai của chúng ta.
Một chìa khóa chính cho sự tin tưởng và áp dụng AI thực sự là khái niệm “có thể giải thích được”. Đó là khả năng giải thích cho người dùng, những người thực hành AI và khách hàng về cách một giải pháp AI đạt được câu trả lời ngang bằng với các chuyên gia trong lĩnh vực con người. Điều này rất quan trọng để đạt được sự tự tin và do đó tạo điều kiện thuận lợi cho việc áp dụng AI. Trí tuệ nhân tạo có thể giải thích (XAI) là một điểm tựa mà trí tuệ nhân tạo đáng tin cậy và trí tuệ nhân tạo cho hoạt động (AIOps) xoay quanh. Để được công nhận là một hệ số nhân thực sự trong một ngành, AI không chỉ phải giành được sự tin tưởng mà còn phải duy trì nó, giống như bất kỳ công nghệ mới hoặc thành viên nhóm nào.
Lớp lót AI và ML
Để có bản tóm tắt nhanh về những điều cơ bản của AI/ML, hãy xem loạt video và blog bảng trắng của Juniper Networks, sau đó tiếp tục quay lại để tìm hiểu thêm về cách giải thích AI (XAI) là liên kết còn thiếu trong ngành.
Nói một cách đơn giản, AI là một giải pháp công nghệ thực hiện các nhiệm vụ ngang bằng với các chuyên gia trong lĩnh vực con người. Những nhiệm vụ này trước đây yêu cầu nhận thức của con người. ML là các thuật toán và phương pháp được sử dụng để cung cấp AI.
Trí tuệ nhân tạo có thể giải thích (XAI) là gì?
AI có thể giải thích hay “khả năng giải thích” là khả năng giải thích bằng thuật ngữ của con người về lý do và cách thức đưa ra các quyết định hoặc hành động mà một dịch vụ hoặc nền tảng AI thực hiện. AI và ML thường được coi là không rõ ràng và không thể giải thích được, nhưng điều này chủ yếu là do các thách thức về khả năng sử dụng và triển khai. Khả năng tiết lộ hoặc suy luận “tại sao” và “làm thế nào” là mấu chốt cho sự tin tưởng, chấp nhận và phát triển của các công nghệ AI. Giống như thuê một nhân viên mới, một trợ lý AI mới phải có được sự tin tưởng và ngày càng hoàn thành tốt công việc của mình trong khi con người dạy nó. |  |
Trí tuệ nhân tạo có thể giải thích cho phép các chuyên gia cũng như các chuyên gia ngoài lĩnh vực suy luận về cái gọi là “hộp đen” trí tuệ nhân tạo. Bằng cách chiếu sáng dữ liệu, mô hình và quy trình, người vận hành có thể tăng cường hiểu biết sâu sắc và khả năng quan sát hệ thống. Sau đó, khả năng kiểm soát của hệ thống (hoặc nền tảng) có thể được tối ưu hóa hoặc thay đổi dựa trên lý luận hiệu quả hơn. Quan trọng nhất, bất kỳ sai sót, rủi ro hoặc sai lệch nào đều có thể được truyền đạt dễ dàng hơn và sau đó được giảm nhẹ, giảm thiểu hoặc loại bỏ.
Tại sao AI có thể giải thích lại quan trọng?
AI có thể giải thích giúp loại bỏ nỗi sợ hãi, sự không chắc chắn và nghi ngờ. Nó tạo ra niềm tin và sự tin tưởng vào các nền tảng và giải pháp AI. Về mặt đảm bảo an toàn, bảo mật và dịch vụ, AI có thể giải thích giúp loại bỏ hành vi “rửa AI” trong khi chỉ ra những điểm mạnh và điểm yếu có liên quan của AI. Khả năng giải thích cũng tăng tốc độ thẩm định và trao quyền cho các học viên AI cũng như khách hàng.
Khi giao nhiệm vụ cho bất kỳ hệ thống nào tìm câu trả lời hoặc đưa ra quyết định, đặc biệt là những hệ thống có tác động trong thế giới thực, điều quan trọng là phải giải thích cách một hệ thống đi đến kết luận, ảnh hưởng đến kết quả hoặc tại sao nó lại thực hiện một hành động ngay từ đầu. Khả năng giải thích này ngày càng trở nên phù hợp đối với các quyết định hoặc hành động có khả năng tác động xấu đến con người, hành tinh hoặc lợi nhuận về mặt thương mại.
Không gian an toàn cho AI
Hoạt động mạng và CNTT của các nhà cung cấp dịch vụ và doanh nghiệp ngày nay là động mạch và trái tim của Internet. Chúng là nền tảng của nền kinh tế kỹ thuật số của chúng ta và trong thời đại kỹ thuật số này, năng suất của các bộ phận CNTT này gắn liền với tăng trưởng kinh tế của một quốc gia. Sự phức tạp ngày càng tăng của các hệ thống dữ liệu và sự phụ thuộc của chúng đang vượt xa nỗ lực của con người trong việc phản hồi thủ công, trong thời gian thực và trên quy mô lớn. Mặc dù tự động hóa có thể giải quyết một số vấn đề xung quanh công việc của con người và quy mô ngày càng tăng, nhưng nó vẫn dựa vào việc so khớp mẫu rõ ràng và bảo trì thủ công. Điều cần thiết là AI thực sự có thể liên tục học hỏi, đào tạo và tự tối ưu hóa trong khi hỗ trợ các nhóm con người. Mục tiêu là xây dựng và vận hành các mạng theo cách sao cho chúng trở nên hoàn toàn trong suốt đối với người dùng cuối.
Các hoạt động CNTT liên quan đến sự kết hợp của cả hệ thống tập trung và phân tán. Mọi thứ từ máy khách đến đám mây đều dựa trên các lớp kết nối vật lý, vận chuyển IP và ngăn xếp ứng dụng. Khi các tầng này chồng chéo và tương tác với nhau, khả năng phục hồi và bảo mật của chúng ngày càng trở nên không thể kiểm soát được đối với các hệ thống giám sát, quản lý và điều phối truyền thống.
Cần có các công cụ và phương pháp tiếp cận mới và đây là lúc khả năng giải thích tạo điều kiện thuận lợi cho việc áp dụng AIOps một cách có trách nhiệm và nhanh chóng. Với các giao thức và cấu trúc dữ liệu được xác định rõ ràng, trong một miền hoàn toàn liên quan đến khả năng kết nối, khả năng tiếp cận và đảm bảo dịch vụ, AI có thể đạt được những bước tiến đáng kinh ngạc mà không sợ bị phân biệt đối xử hoặc thiên vị của con người. Khi được giao nhiệm vụ với một không gian vấn đề trung lập, việc khắc phục sự cố, đảm bảo và tối ưu hóa là những thách thức chắc chắn mà AIOps có thể chấp nhận một cách có trách nhiệm.
Độ tin cậy trong AI
Làm thế nào các tổ chức có thể xây dựng niềm tin vào AI?
Niềm tin không phải là nhị phân. Niềm tin là một sự liên tục. Nó được xây dựng theo từng lớp theo thời gian và phần lớn dựa trên sự tích lũy kinh nghiệm và kết quả trước đó. Sự tin tưởng thường đòi hỏi sự sẵn sàng mở rộng phạm vi theo từng bước nhỏ hơn là những bước nhảy vọt. Lòng tin có thể mong manh và thoáng qua nếu các hành động hoặc kết quả không như mong đợi, và nó có xu hướng giảm đi nếu không đưa ra được lý do nào cho các hành động trước đó. Niềm tin cũng bao gồm mức độ chấp nhận rủi ro phụ thuộc vào khả năng thành công hay thất bại. Niềm tin là một hành trình phức tạp và liên tục bất kể lời hứa được đưa ra hay ý định tốt.
Tính minh bạch có thể thúc đẩy lòng tin, nhưng chính khả năng giải thích mới tạo điều kiện thuận lợi cho điều đó. Con người sợ hãi những điều chưa biết và sự không chắc chắn gây ra lo lắng. Sự tự tin và an tâm đi kèm với sự rõ ràng. Phát triển niềm tin vào một nền tảng AI có nghĩa là tìm hiểu và hiểu nó. Từ dữ liệu được sử dụng, đến kỹ thuật tính năng và đào tạo, đến phạm vi và tác động của các quyết định hoặc hành động, giải pháp AI càng nhất quán và dễ giải thích thì chúng ta càng ít sợ điều chưa biết và không tin tưởng vào nó. Vì vậy, nếu một nền tảng AI có thể dạy chúng ta về chính nó đồng thời thể hiện các hành động nhất quán và có thể giải thích được, thì chúng ta có nhiều khả năng sẽ tương tác và đón nhận nó hơn.
Một trong những điều kiện tồn tại và tự nhiên sâu sắc nhất của chúng ta là muốn biết điều gì đang xảy ra và tại sao. Đó là cốt lõi của con người chúng ta và cách chúng ta tham gia và tiến lên trên thế giới. Chúng ta thường cố gắng để cảm thấy mình có quyền kiểm soát, nhưng khi cảm giác này không còn nữa, thì điều đó thật đáng lo ngại và bất an. Nếu chúng tôi thuê ngoài các hành động hoặc quyết định cho bên thứ ba hoặc AI, chúng tôi muốn có khả năng hiểu được cái gì và quan trọng hơn là lý do để giữ được lòng tin. Khi chúng tôi tìm hiểu về bất kỳ công nghệ hoặc cải tiến mới nào, chúng tôi bắt đầu bằng cách cố gắng hiểu những điều cơ bản, điểm mạnh và điểm yếu của nó cũng như bất kỳ rủi ro tiềm ẩn nào. Nếu AI không thể giải thích được, thì sẽ có những nghi ngờ nội tại và ngay lập tức về khả năng sử dụng và độ tin cậy của nó. Nếu các thực thể thương mại không tuân theo các nguyên tắc AI như khả năng giải thích, thì chúng ta nên đặt niềm tin vào đâu và ai chịu trách nhiệm về việc gì?
AI có thể hiểu được
Liên quan đến khả năng giải thích là khái niệm “khả năng diễn giải”. Khả năng giải thích hoặc hiểu kết quả của một mô hình sau khi thực tế không quan trọng lắm mà là hiệu quả của mô hình ML và mức độ nó có thể liên kết nguyên nhân với kết quả. Các kỹ thuật ML đơn giản hơn như hồi quy tuyến tính và cây quyết định được coi là dễ hiểu hơn, cũng như các mô hình mạng thần kinh sử dụng các tính năng đầu vào và trọng số đã học để đưa ra dự đoán.
Tăng cường niềm tin và trách nhiệm giải trình
Các nhà quản lý mạng và CNTT có nhiều động lực để giảm bớt công việc cho các nhóm vận hành. Giảm công việc lặp đi lặp lại có giá trị thấp sẽ giải phóng tài năng của con người cho các dự án thú vị và có tác động hơn. Như một phần thưởng, điều này cũng làm giảm tỷ lệ rời bỏ và tăng khả năng giữ chân nhân viên. Các nhà lãnh đạo nắm bắt các công cụ và phương pháp sáng tạo mới cho nhóm của họ sẽ được hưởng lợi theo nhiều cách, nhưng với AI, họ có thể miễn cưỡng làm như vậy do hoạt động tiếp thị quá nhiệt tình và rửa sạch AI. Thật không may, chúng ta đã đạt đến một điểm bùng phát mới trong CNTT về sự phức tạp phức hợp và AI thực sự cung cấp một giải pháp kịp thời giúp tăng cường các nhóm bằng các công cụ thông minh hơn và hiệu quả hơn. Tuy nhiên, những công cụ này phải phù hợp với mục đích trong khi thực hiện đúng lời hứa của chúng, nhưng đối với người điều hành hoặc người mua, làm sao ai đó biết nếu chúng không thể giải thích được? Chúng ta có thể nhân cách hóa AI để làm cho nó dễ chịu hơn, nhưng câu hỏi cơ bản là ai chịu trách nhiệm cuối cùng về các quyết định hoặc hành động mà AI thực hiện hoặc đóng góp? Ai hoặc cái gì mà chúng ta đang được yêu cầu mở rộng lòng tin của mình? Những câu hỏi này có thể trở thành vấn đề tổ chức truyền thống, nhưng chúng cũng liên quan đến lĩnh vực và phạm vi mà AI được phép hoạt động. Bằng cách bảo lưu khả năng giữ “con người trong vòng lặp”, chúng tôi luôn có thể đảm bảo rằng có một thực thể chịu trách nhiệm có thể phê duyệt hoặc can thiệp khi cần. Tính năng kiểm tra thủ công có thể được dành riêng một cách có chọn lọc cho các quyết định hoặc hành động có tác động cao, tuy nhiên, điều này chỉ hoạt động nếu thông tin chi tiết và hành động có thể giải thích được cho người vận hành, người sau đó có thể đưa ra quyết định sáng suốt.
Trong quá trình ra quyết định, khi chúng ta chuyển từ quan sát sang định hướng để quyết định và hành động trong vòng lặp OODA, chúng ta phải luôn đặt câu hỏi nên chèn hoặc dự trữ người gác cổng ở đâu và khi nào khi họ tương tác với các hệ thống AI. Người vận hành con người, hiện có khả năng được coi là thực thể được hỗ trợ bởi AI, vẫn có thể chịu trách nhiệm và chịu trách nhiệm về toàn bộ hệ thống, bao gồm cả những thành công và thất bại của nó, giống như bất kỳ chủ sở hữu hệ thống nào khác. Mối quan hệ giữa các tác nhân con người và máy móc tiếp tục phát triển về tầm quan trọng và xoay quanh chủ đề niềm tin và mối quan hệ của nó với tính minh bạch và khả năng giải thích.
Một số thẩm định nhanh đối với các giải pháp AI có thể bao gồm:
- Những thuật toán bao gồm và đóng góp cho giải pháp?
- Dữ liệu nào được nhập vào và dữ liệu đó được làm sạch như thế nào?
- Dữ liệu được lấy từ đâu (dữ liệu được tùy chỉnh cho mỗi người thuê, tài khoản hoặc người dùng)?
- Các thông số và tính năng được thiết kế từ không gian mạng như thế nào?
- Làm thế nào để các người mẫu được đào tạo, đào tạo lại và luôn mới mẻ và phù hợp?
- Hệ thống có thể tự giải thích lý do, khuyến nghị hoặc hành động của nó không?
- Sự thiên vị được loại bỏ hoặc giảm thiểu như thế nào?
- Làm thế nào để giải pháp hoặc nền tảng tự động cải thiện và phát triển?
AI có thể giải thích được trong hành động
Với Juniper Mist, chúng tôi xây dựng AI xung quanh một số nguyên tắc cốt lõi giúp tạo dựng niềm tin thông qua tính minh bạch và khả năng giải thích. Chúng tôi cũng đã viết rất nhiều về AI/ML và cách tiếp cận AIOps độc đáo của chúng tôi, bao gồm dữ liệu và nguyên tắc, giải quyết vấn đề, giao diện và chatbot thông minh, tất cả đều giúp phát hiện và khắc phục sự bất thường của mạng đồng thời cải thiện hoạt động bằng cách sử dụng bộ công cụ tốt hơn trong của bạn hộp công cụ.
Kết luận
Những cải tiến liên tục của chúng tôi về AI sẽ giúp cuộc sống của nhóm, người dùng và khách hàng của bạn trở nên dễ dàng hơn. Và AI có thể giải thích giúp bạn bắt đầu hành trình áp dụng AI của mình. Bắt đầu ngay hôm nay và tham gia cùng chúng tôi trong một trong các webcast hàng tuần của chúng tôi để xem cách thức Trợ lý mạng ảo (VNA) do AI điều khiển của chúng tôi, Marvis, tương tác bằng ngôn ngữ tự nhiên, khắc phục sự cố và đề xuất thực hiện các hành động khắc phục, đồng thời cho người dùng thấy lý do và nguyên nhân với dữ liệu và biểu đồ có liên quan để hỗ trợ thông tin chi tiết và hành động.
CÔNG TY CỔ PHẦN DỊCH VỤ CÔNG NGHỆ DATECH
• Địa chỉ: Số 23E4 KĐT Cầu Diễn, Tổ 7, Phú Diễn, Bắc Từ Liêm, Hà Nội
• Điện thoại: 02432012368
• Hotline: 098 115 6699
• Email: info@datech.vn
• Website: https://datech.vn