fbpx
Native X
ĐĂNG KÝ HỌC THỬ MIỄN PHÍ NGAY

Làm thế nào để xây dựng trí tuệ nhân tạo đáng tin cậy trong các ngành công nghiệp khác nhau

Trí tuệ nhân tạo (AI) đang ngày càng trở nên phổ biến trong nhiều lĩnh vực khác nhau. Tuy nhiên, vấn đề về độ tin cậy của AI và tương tác với đạo đức là một trong những điểm quan trọng mà chúng ta cần tập trung.

Trí thông minh nhân tạo trở thành một biểu tượng của sự tiến bộ công nghệ, thu hút sự chú ý và tò mò của cả thế giới. Trong một cuộc trò chuyện sôi nổi giữa Beena Ammanath và Adel Nehme, chúng ta sẽ hiểu thêm những yếu tố cơ bản quyết định độ tin cậy của AI. Cùng NativeX nhìn rõ hơn về bức tranh đa chiều của Trí tuệ Nhân tạo và tầm ảnh hưởng của nó đối với thế giới.

Sự tiến bộ của Trí Thông Minh Nhân Tạo và những thách thức tương lai

Sự tiến bộ của Trí Thông Minh Nhân Tạo và những thách thức tương lai

Benna Ammanath tin tưởng tuyệt đối về AI trí tuệ nhân tạo trong các ngành nghề khác.

  • Beena Ammanath (khách mời)

Beena Ammanath là một nhà lãnh đạo hàng đầu trong lĩnh vực công nghệ, có danh tiếng và nhận được nhiều giải thưởng, có kinh nghiệm chuyên sâu trong lĩnh vực Trí tuệ Nhân tạo (AI) và chuyển đổi kỹ thuật số. Với quá trình làm việc trong nhiều ngành, cô đã đảm nhận nhiều vị trí lãnh đạo quan trọng trong các lĩnh vực như: thương mại điện tử, tài chính, tiếp thị, viễn thông, bán lẻ, sản phẩm phần mềm, dịch vụ và công nghiệp.

Hiện tại, Beena đang đứng đầu Viện AI toàn cầu và là Giám đốc Công nghệ Đạo đức/AI đáng tin cậy tại Deloitte, sau khi giữ vị trí CTO-AI tại Hewlett Packard Enterprise. Ngoài ra, cô còn là tác giả của cuốn sách  mang tên “AI đáng tin cậy”.

Beena là người nổi tiếng với những hoạt động như hỗ trợ phụ nữ và tạo ra văn hóa trong ngành công nghệ và kinh doanh. Cô là người sáng lập Humans for AI, một tổ chức phi lợi nhuận thúc đẩy tích hợp trong lĩnh vực Trí tuệ Nhân tạo. Sự cam kết và đóng góp của Beena đã được công nhận thông qua nhiều giải thưởng, bao gồm: Giải thưởng Nữ siêu thành tựu năm 2016 và vinh dự tại Đại sảnh Danh vọng Phụ nữ trong Công nghệ năm 2017.

Beena còn nhận được vinh danh từ UC Berkeley khi được chọn là Người phụ nữ của năm 2018 về phân tích kinh doanh. San Francisco Business Times cũng từng tôn vinh cô là một trong những Phụ nữ có ảnh hưởng nhất năm 2017 ở Vùng Vịnh, và Hội đồng Đa dạng Quốc gia đã xác nhận cô là một trong 50 nhà lãnh đạo đa văn hóa hàng đầu trong lĩnh vực công nghệ.

  • Adel Nehme (Người dẫn chương trình)

Adel, một người làm việc tại DataCamp, là một nhà giáo dục và diễn giả, truyền giáo về Khoa học Dữ liệu. Tại DataCamp, anh ấy đã phát triển nhiều khóa học nổi bật, mang đến sự đa dạng trong việc đào tạo về phân tích dữ liệu, học máy và kỹ thuật dữ liệu. Adel đam mê truyền đạt những kỹ năng và kiến thức về dữ liệu, ngoài ra còn chú trọng đến sự kết hợp giữa công nghệ và xã hội.

Bài học chính:

  1. Mặc dù tính công bằng và tránh thiên vị là yếu tố vô cùng quan trọng trong lĩnh vực trí tuệ nhân tạo (AI), tuy nhiên, mức độ ảnh hưởng của chúng có thể thay đổi tùy thuộc vào từng trường hợp sử dụng cụ thể. 

Điều quan trọng là phải xác định mức độ sai lệch có thể chấp nhận được đối với mỗi ứng dụng AI cụ thể, đặc biệt là khi liên quan đến việc xử lý dữ liệu cá nhân.

  1. Khi đưa ra quyết định về đạo đức trong lĩnh vực trí tuệ nhân tạo (AI), đặc biệt khi xem xét về sự thiên vị và công bằng, đảm bảo sự tham gia từ nhiều bên liên quan, bao gồm lãnh đạo doanh nghiệp, quản lý rủi ro, và nhóm pháp lý.
  2. Để triển khai trí tuệ nhân tạo (AI) đáng tin cậy, phải xác định cụ thể các khía cạnh liên quan đến từng trường hợp sử dụng, xác định dữ liệu cần thiết và thu hút sự tham gia tích cực từ các bên liên quan chính. Mục tiêu là đảm bảo rằng hệ thống AI không chỉ đáp ứng đúng với các mục tiêu kinh doanh mà còn tuân thủ các nguyên tắc đạo đức.
  • Trích dẫn quan trọng:

“Thách thức nằm ở chỗ không có cách tiếp cận chung để đảm bảo an toàn cho trí tuệ nhân tạo (AI). Nó không thể chỉ là một bộ luật AI. Có những nguyên tắc và ý tưởng tổng quát về hướng chúng ta đang hướng tới, có thể là ở cấp độ quốc gia hoặc toàn cầu. Nhưng cuối cùng, nó sẽ phụ thuộc vào trường hợp sử dụng cụ thể. Vì vậy, tôi thấy rằng quy định xuất phát từ hai loại chính. 

Một là cho các ngành hiện tại, những ngành tồn tại trước khi internet xuất hiện như chăm sóc sức khỏe, ngân hàng, hệ thống tài chính, năng lượng và sản xuất. Loại thứ hai chủ yếu áp dụng cho các ngành mới nổi trong vài thập kỷ gần đây. Những nơi mà quy định còn thiếu, có thể là trong các nền tảng công nghệ rộng lớn hoặc trong lĩnh vực truyền thông xã hội. Đó là những ngành hoàn toàn mới và có thể bạn sẽ thấy có nhiều quy định hơn tại đó. Tuy nhiên, điều quan trọng là, tôi không nghĩ rằng nó sẽ là một quy định chung. Nó sẽ phụ thuộc rất nhiều vào ngành và trường hợp sử dụng cụ thể.”

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

Transcript – Cuộc hội thoại giữa Beena Ammanath và Adel Nehme

Adel Nehme: Xin chào mọi người. Rất hân hạnh chào đón các bạn đến với DataFramed. Tôi là Adel, một Người truyền giáo dữ liệu và giáo viên tại DataCamp. Đối với những bạn mới tham gia, DataFramed là podcast hàng tuần, nơi chúng tôi tìm hiểu cách cá nhân và tổ chức có thể đạt được thành công với dữ liệu và trí tuệ nhân tạo (AI). Trong suốt quãng thời gian vừa qua, chúng ta đã thấy AI trở thành một yếu tố quan trọng trong nhiều tổ chức hiện nay.

Hầu hết các cuộc họp ngày nay đều tập trung vào chiến lược tổng thể của họ về AI. Điều này mang lại áp lực lớn cho nhóm dữ liệu trong việc triển khai AI. Tuy nhiên, với áp lực ngày càng tăng này, việc xây dựng những trải nghiệm an toàn và đáng tin cậy quan trọng hơn bao giờ hết. Làm thế nào chúng ta có thể cân bằng giữa sự đổi mới và việc xây dựng những trải nghiệm đáng tin cậy?

Làm thế nào để biến ý nghĩa “AI có trách nhiệm” thành hiện thực? Chúng ta nên thảo luận với những ai khi nói về khía cạnh đáng tin cậy của việc sử dụng AI? Để giải đáp những thắc mắc này, chúng ta có Beena Ammanath. Beena là người đứng đầu trong việc xây dựng đạo đức và độ tin cậy của công nghệ và AI tại Deloitte. Cô ấy cũng là tác giả của cuốn sách “Trustworthy AI”, một tài liệu có thể giúp các doanh nghiệp xác định niềm tin và đạo đức trong việc sử dụng AI.

Beena tích lũy nhiều kinh nghiệm toàn cầu về Trí tuệ Nhân tạo (AI) và quá trình chuyển đổi kỹ thuật số, bao gồm nhiều lĩnh vực như thương mại điện tử, tài chính, tiếp thị, viễn thông, bán lẻ, phần mềm dịch vụ công nghiệp, và nhiều lĩnh vực khác. Trong buổi trò chuyện hôm nay, chúng ta sẽ đi sâu vào các nguyên tắc cốt lõi của AI đáng tin cậy, tương tác giữa đạo đức và AI trong các ngành khác nhau, cách làm cho AI đáng tin cậy trở nên thiết thực, vai trò của các bên liên quan trong bảo đảm AI đáng tin cậy, tầm quan trọng của kiến thức về AI trong việc quảng bá, trách nhiệm và tính đáng tin cậy của AI, và nhiều vấn đề khác.

Nếu bạn thích tập này, đừng quên chia sẻ ý kiến của bạn trong phần bình luận, trên các mạng xã hội hoặc thậm chí hơn nữa. Và bây giờ, chúng ta sẽ bắt đầu với tập hôm nay. Beena Ammanath, thật sự vui vì bạn đã tham gia chương trình.

Beena Ammanath: Cảm ơn anh đã mời tôi, Adel.

Adel Nehme: Cô là người đứng đầu Viện AI Deloitte toàn cầu, là một nhà lãnh đạo trong lĩnh vực công nghệ và là tác giả của cuốn sách về AI đáng tin cậy. Vì vậy, để có cái nhìn rõ ràng hơn, đặc biệt là trong lĩnh vực này, tôi muốn hiểu rõ hơn về một số định nghĩa. Chúng ta thường xuyên gặp nhiều thuật ngữ khác nhau khi nói đến đạo đức và trách nhiệm của AI.

Chúng ta đã nghe nhiều thuật ngữ như đạo đức AI, AI có trách nhiệm, AI đáng tin cậy. Vậy, cô có thể chia sẻ kiến thức của mình về những thuật ngữ này, cụ thể là sự liên quan giữa chúng, chúng khác nhau thế nào, và cách bạn tiếp cận thuật ngữ “AI đáng tin cậy” trong quá trình viết cuốn sách của mình?

Beena Ammanath: Vâng, Adel, đó là một câu hỏi hay để bắt đầu chỉ về mặt thiết lập cấp độ. Và tôi muốn tiếp cận nó từ góc nhìn kinh doanh để giải quyết vấn đề về đạo đức AI hoặc mọi thách thức mà chúng ta thường nghe thấy trên các tiêu đề. Tôi nghĩ rằng chúng ta cần nhìn vào nó hoàn toàn từ góc nhìn kinh doanh.

Quan trọng nhất, ở góc độ doanh nghiệp, nếu bạn đang xây dựng một giải pháp hoặc sản phẩm AI, điều bạn muốn làm là đảm bảo rằng sản phẩm hoặc giải pháp của bạn là đáng tin cậy. Từ quan điểm của tôi, điều này bao gồm nhiều khía cạnh đạo đức, trách nhiệm và bảo đảm trách nhiệm, tính minh bạch và một loạt các khía cạnh khác, bởi vì cuối cùng niềm tin bao gồm nhiều yếu tố khác nhau.

Nếu người sử dụng tin tưởng vào sản phẩm của bạn, họ sẽ sử dụng nó. Sau đó họ kết hợp sản phẩm vào cuộc sống hàng ngày và sản phẩm của bạn sẽ đạt được thành công. Đối với tôi, niềm tin là một cách tuyệt vời để định nghĩa và cũng cho phép chúng ta đo lường nó khi sản phẩm được đưa ra thị trường.

Adel Nehme: Đúng vậy, điều đó thật tuyệt vời. Tôi thật sự muốn tìm hiểu sâu hơn về những gì bạn đã đề cập ở đây, đó là các khía cạnh của AI đáng tin cậy. Trong cuốn sách của bạn, bạn đã đề cập đến 6 khía cạnh riêng biệt của AI đáng tin cậy. Bạn có thể chia sẻ với chúng tôi những khía cạnh này ở cấp độ cao và hướng dẫn quá trình bạn xác định chúng khi viết cuốn sách?

Beena Ammanath: Chắc chắn, chúng ta có thể bắt đầu với một vấn đề thường thấy trong mọi cuộc trò chuyện về đạo đức, đó là sự thiên vị và công bằng. Dựa trên kinh nghiệm của tôi trong nhiều ngành khác nhau, tôi chắc chắn rằng khán giả của bạn cũng đã gặp những trải nghiệm như vậy, phải không, Adel?

Và đúng vậy, sự công bằng và thiên vị là yếu tố cực kỳ quan trọng, tuy nhiên, có những trường hợp sử dụng cụ thể, chúng có thể không áp dụng được. Do đó, cách tốt nhất để xem xét các khía cạnh này là xác định cái nào trong số đó phù hợp với tình huống sử dụng hoặc sản phẩm AI bạn đang làm việc, sau đó chỉ định những khía cạnh liên quan và xây dựng các chỉ số để đo lường và theo dõi chúng. Hãy bắt đầu với sự công bằng và thiên vị. Trong hầu hết các trường hợp, nếu bạn không sử dụng dữ liệu cá nhân hoặc không ảnh hưởng trực tiếp đến hành vi con người, thì sự công bằng và thiên vị có thể không được áp dụng.

Ý tôi là. Tất cả những khía cạnh mà người tiêu dùng phải đối mặt trực tiếp, từ việc tiếp thị cá nhân hóa đến chẩn đoán bệnh nhân, đều đóng một vai trò quan trọng và bạn nhất định phải có khả năng giải quyết chúng. Tuy nhiên, nếu bạn đang xem xét dự đoán lỗi máy móc hoặc dự đoán lỗi động cơ phản lực, thì sự chênh lệch có thể không liên quan.

Đó là về việc có nhiều dữ liệu IoT hơn, nhiều dữ liệu máy hơn. Liên quan đến việc đánh giá hồ sơ dịch vụ. Liên quan đến việc xem xét dữ liệu từ hộp đen và sau đó dự đoán xem động cơ phản lực có bị hỏng hay không, cũng như dự đoán khi nào nó có thể gặp sự cố, đúng không? Do đó, điều quan trọng là bạn hiểu rằng hãy tận dụng những yếu tố mà tôi sẽ trình bày và xác định những yếu tố nào liên quan.

Khi đã xác định được những yếu tố đó, tôi muốn nhấn mạnh về quy trình mà bạn đã đề cập khi xác định các yếu tố này. Một điểm quan trọng là phải xác định ngưỡng chấp nhận được, đặc biệt là đối với những yếu tố như thành kiến. Chúng ta hiểu rằng không thể có các thuật toán hoàn toàn không thiên vị.

Nếu một hệ thống không hoạt động, thì mức độ thiên vị được chấp nhận là bao nhiêu? Hãy giả sử rằng bạn đang sử dụng công nghệ AI, cụ thể là công nghệ nhận dạng khuôn mặt.  Bạn áp dụng công nghệ này trong một nhà máy sản xuất để ngăn ngừa tai nạn lao động. Nếu bạn nhìn thấy ai đó mệt mỏi, có vẻ họ sắp ngủ quên trong lúc làm việc.

Có thể bạn muốn thực hiện một số biện pháp phòng ngừa để tránh tai nạn. Tuy nhiên, cùng với công nghệ đó, cụ thể là công nghệ nhận dạng khuôn mặt, nó cũng có thể được sử dụng trong bối cảnh thực thi pháp luật để đánh dấu một người là đối tượng phạm tội. Tại đó, không có mức độ thiên vị nào được chấp nhận. Bởi vì, nếu bạn nhận nhầm ai đó là tội phạm, cuộc sống của họ có thể bị đảo lộn đến mức không thể khôi phục.

Vậy nên, không có chính sách khoan dung nào đối với sự thiên vị. Tuy nhiên, trong ngữ cảnh của một quốc gia, câu hỏi là liệu công nghệ này có giúp chúng ta ngăn ngừa tai nạn hay không? Nó có thay đổi số liệu không? Có giảm số vụ tai nạn từ 10% đến 90% không? Mức độ chấp nhận là gì trong trường hợp này?

Vâng, công nghệ không thể nắm bắt được mọi tình huống có thể xảy ra. Tuy nhiên, bạn có muốn sử dụng thuật toán này không? Hãy nghĩ về một ví dụ cực đoan, được không? Chúng ta biết rằng công nghệ nhận dạng khuôn mặt đang được một số tổ chức phi chính phủ sử dụng để xác định nạn nhân buôn người và bắt cóc, thường được áp dụng trong ngữ cảnh thực thi pháp luật, chẳng hạn như tại các điểm dừng giao thông.

Bây giờ, câu hỏi đặt ra là mức độ thiên vị chúng ta có thể chấp nhận là bao nhiêu? Nếu công nghệ này giúp chúng ta cứu được nhiều nạn nhân lên tới 60% so với việc không sử dụng công nghệ, liệu điều đó có được chấp nhận không? Điều này có ổn không? Chúng ta có thừa nhận rằng đó là sự thiên vị, nhưng liệu đó có phải là một tiêu chí có thể chấp nhận được không? Vì vậy, đối với mỗi khía cạnh mà chúng ta sẽ thảo luận hôm nay, tôi cho rằng quan trọng là phải xác định xem nó có liên quan hay không.

Với trường hợp sử dụng cụ thể của dự án hoặc sản phẩm của bạn, mức độ chấp nhận là bao nhiêu? Mức độ sai lệch được chấp nhận trong trường hợp cụ thể này là gì?

Adel Nehme: Đúng vậy, tôi thích cách bạn chú trọng vào cách áp dụng tư duy đánh đổi dựa vào từng trường hợp sử dụng, đặc biệt là khi nói đến sự thiên vị và công bằng. Tôi cảm thấy đó là một quan điểm rất thực tế trong cách tiếp cận với các vấn đề đa dạng như thế này. Có thể bạn đang nghĩ về sự thiên vị và công bằng, và bạn đã nhìn thấy trong bối cảnh một số giải pháp dành cho các nhà lãnh đạo đang cố gắng tận dụng dữ liệu của con người.

Chúng ta nên đưa ra cách tiếp cận như thế nào khi bắt đầu tận dụng các trường hợp liên quan đến việc sử dụng dữ liệu con người trong vấn đề này?

Beena Ammanath: Đúng vậy, đó là một ý tưởng xuất sắc. Bạn đang chuyển sang cấp độ chi tiết tiếp theo, đúng không? Như là việc AI ra quyết định như thế nào? Mức độ thiên vị được chấp nhận là bao nhiêu? Đây là lúc bạn cần thu hút các bên liên quan chính. Điều này áp dụng cho toàn bộ tổ chức, không chỉ riêng các nhà khoa học dữ liệu. Đó không chỉ là nhóm của Tôi hoặc nhóm của bạn, mà có sự tham gia của tất cả các bên liên quan.

Thậm chí, không chỉ đội ngũ công nghệ, mà cả đội ngũ lãnh đạo doanh nghiệp đang tham gia vào quá trình xây dựng dự án. Khi xác định các số liệu, bạn phải chắc chắn hoàn toàn, phải không? Mức độ sai lệch được chấp nhận là điều quan trọng, và đảm bảo có sự tham gia của lãnh đạo doanh nghiệp là không thể phủ nhận. Điều quan trọng là đảm bảo có sự tham gia của lãnh đạo doanh nghiệp. Tất cả đều không chỉ là quyết định công nghệ, vì bất kỳ quyết định nào cũng đi kèm với rủi ro tồn tại.

Adel Nehme: Điều đó thật tuyệt vời. Tôi rất vui được tiếp tục thảo luận với bạn về chủ đề này. Có những cách mang tính chiến thuật hơn mà các nhóm hiện tại có thể tiến hành đáng tin cậy. Tuy nhiên, tôi muốn khám phá sâu hơn vào những khía cạnh của đề tài. Theo nhiều cách, bạn đã đưa ra một ví dụ tuyệt vời về việc dự đoán lỗi động cơ phản lực, thay vì một ví dụ về trường hợp sử dụng đòi hỏi sự thiên vị và công bằng cơ bản hoặc quan trọng.

Tuy nhiên, đó là một trường hợp sử dụng mà yếu tố quan trọng khác là độ tin cậy và độ bền. Bởi vì, nếu ta đặt vào tình thế sức mạnh và độ tin cậy, điều này có thể mang ý nghĩa to lớn; có thể phân biệt giữa sự sống và cái chết theo nhiều cách. Vì vậy, tôi muốn học hỏi từ quan điểm của bạn, điều gì làm cho AI trở nên an toàn?

Beena Ammanath: Tôi hy vọng, Adel, anh đang đọc sách của tôi vì những gì anh trích dẫn chính đều đúng. Điều đó thật tuyệt vời.

Adel Nehme: Đúng vậy, tôi đã đọc cuốn sách đó. Vâng.

Beena Ammanath: Tôi nghĩ là có, và một lần nữa, thuật ngữ “niềm tin” quan trọng đối với tôi, đúng? Đối lập với “ảo giác”, phải không? Sự công bằng và thiên vị là các khía cạnh rõ ràng về đạo đức. Tuy nhiên, để sản phẩm AI của bạn đáng tin cậy, nó phải gắn liền với niềm tin.

Và trong thế giới hiện đại, chúng ta thường nghe đến khái niệm “ảo giác”, phải không? Hãy dừng lại một chút. Ảo giác là gì? Đó là một vấn đề về độ tin cậy. Đó là việc phần mềm không nhất quán tạo ra kết quả không đáng tin cậy. Vì vậy, đây là một vấn đề liên quan đến độ tin cậy mà chúng ta gọi một cách hài hước là “ảo giác”.

Tuy nhiên, đối với tôi, độ tin cậy có nghĩa là bạn có thể cung cấp kết quả chính xác và nhất quán liên tục. Kết quả phải tương thích với số liệu mà bạn đã xác định. Ý tôi là gì? Các mức độ tin cậy có thể thay đổi. Và hãy sử dụng thuật ngữ “ảo giác” vì nó là một thuật ngữ thông dụng ngày nay, đúng không?

Nếu bạn đang sử dụng AI để thực hiện quảng cáo cá nhân hóa, độ tin cậy có thể không cao lắm. Đúng vậy, nó có thể linh hoạt hơn một chút, đúng không? Có thể xảy ra trường hợp bạn phân phối quảng cáo đến sai nhóm đối tượng. Đúng vậy. Tuy nhiên, nếu bạn đang sử dụng thuật toán để chẩn đoán bệnh nhân, thuật toán đó phải chính xác 100%, ngay cả khi có sự tham gia của con người. Vì vậy, bạn phải nhìn vào độ tin cậy và xem xét nó từ góc độ trường hợp sử dụng cụ thể. Hãy nhìn vào lĩnh vực của bạn, Adel, có đúng không? Đó có thể là lĩnh vực giáo dục của bạn, đúng không?  Nếu bạn giới thiệu sai khóa học cho học viên, thì mức độ tin cậy được chấp nhận là bao nhiêu, đúng không?

Đó có phải là một tình huống quyết định sự sống và cái chết không? Chắc chắn không phải. Nhưng nếu bạn đưa ra sai loại thuốc cho bệnh nhân, đúng không? Nếu bạn đang sử dụng AI, như tôi mới nhìn thấy gần đây, nhiều người tiêu dùng đang bắt đầu sử dụng AI để xem xét các phương pháp điều trị hoặc hiểu thuật ngữ y tế.

Vì vậy, bạn biết đấy, tôi nghĩ nó thực sự phụ thuộc vào trường hợp sử dụng. Độ tin cậy dựa trên số liệu và đó là, theo cách đơn giản nhất. Cảm ơn, Jenny. Tôi có thể nói độ tin cậy chỉ là ảo giác. Bạn giải quyết như thế nào?

Adel Nehme: Đúng vậy, chúng ta hãy tiếp tục khám phá mức độ đáng tin cậy của AI với tính sáng tạo ở đây. Tuy nhiên, khi chúng ta nói về AI sáng tạo, tôi nghĩ đến khái niệm minh bạch, một khía cạnh mà bạn đã đề cập trong cuốn sách của mình.

Tôi nhớ cách đây 5 năm, chúng ta đã thảo luận về tầm quan trọng của việc khai thác các mô hình hộp đen và cố gắng làm cho chúng có khả năng hiểu được. Và giờ đây, chúng ta đang sống trong thời đại của các mô hình ngôn ngữ lớn, với hàng tỷ, thậm chí cả nghìn tỷ tham số khi các mô hình này trở nên phức tạp.

Vậy bạn nghĩ sao về khái niệm minh bạch và sự đánh đổi mà các nhà lãnh đạo cần phải thực hiện ngay bây giờ? Sự đánh đổi giữa tính minh bạch và hiệu suất khi các mô hình này trở nên ngày càng hiệu quả hơn.

Beena Ammanath: Đúng vậy. Tôi nghĩ sự minh bạch có hai phần. Minh bạch là việc cho thấy cách mô hình đạt được một kết quả cụ thể hoặc một mục tiêu cụ thể, phải không? Nhưng nó cũng đảm bảo rằng tất cả các bên liên quan hiểu rõ cách mà mô hình hoạt động và nhận thức về rủi ro liên quan.

Đi kèm với nó, bạn cần hiểu loại dữ liệu huấn luyện đã được sử dụng, những phần thiếu sót là gì, nó chưa được đào tạo về điều gì. Vì vậy, tính minh bạch có thể cung cấp mức độ hiển thị đó từ góc độ thứ nhất. Nhưng xét về mặt số liệu và làm thế nào bạn đánh giá cân nhắc giữa cơ hội và rủi ro?

Tôi nghĩ rằng, một lần nữa, điều này liên quan đến trường hợp sử dụng. Nếu bạn sử dụng tính minh bạch, ví dụ như trong trường hợp của ứng dụng bản đồ, khi bạn chỉ định điểm A và điểm B, có lẽ bạn không quá quan tâm đến quá trình đến điểm tối ưu như thế nào. Vâng, nó có thể đưa bạn đến điểm đến, tuy nhiên, đôi khi ứng dụng của tôi có thể chọn một con đường dài hơn.

Tuy nhiên, trong trường hợp bạn là một bác sĩ, quay lại vấn đề chăm sóc bệnh nhân. Với thuật toán của bạn đề xuất một lộ trình điều trị cụ thể, trong vai trò của bác sĩ, điều cực kỳ quan trọng là phải hiểu những yếu tố được sử dụng trong thuật toán đó để đưa ra quyết định, tương tự như việc thẻ tín dụng bị từ chối. Tôi nghĩ rằng đó là một khía cạnh cần khuyến khích mức độ minh bạch, vì vậy nó phụ thuộc vào ứng dụng cụ thể. Vấn đề là, mức độ minh bạch cần thiết là bao nhiêu, đôi khi “hộp đen” cũng được chấp nhận. Tôi không quan tâm vì sao ứng dụng âm nhạc của tôi giới thiệu một bài hát cụ thể. Tôi không cần biết nội dung “hộp đen” đằng sau nó. Tôi không cần. Nhưng bạn cần thông tin đó, phải không? Nhưng nếu bác sĩ đề xuất một kế hoạch điều trị dựa trên khuyến nghị của AI, tôi, là người tiêu dùng, muốn biết.

Và bác sĩ cũng cần biết để đảm bảo rằng đó là con đường chính xác, phải không? Vì có tác động nếu mức độ minh bạch không có sẵn. Và cuối cùng, nếu người tiêu dùng cuối không cảm thấy rằng bạn, dưới tư cách là một doanh nghiệp, không minh bạch, thì họ sẽ không tin tưởng vào các giải pháp AI mà bạn đưa ra. Vì vậy, tôi nghĩ tính minh bạch là một yếu tố quan trọng để xây dựng niềm tin vào đội ngũ của bạn.

Adel Nehme: Thật tuyệt vời. Một chủ đề chung liên quan đến cuộc thảo luận của chúng ta cho đến nay là tầm quan trọng của việc xem xét từng trường hợp sử dụng và hiểu rõ mức độ rủi ro trong các trường hợp đó, phải không? Tầm quan trọng của việc phân loại rủi ro cho các loại khác nhau. Vậy, bạn nghĩ sao về việc sử dụng một khung để phân loại rủi ro cho các ứng dụng AI trong các lĩnh vực khác nhau?

Beena Ammanath: Vâng. Và chúng ta hãy xem, sẽ có các quy định áp dụng và giúp chúng ta điều này chuẩn mực hơn. Tuy nhiên, từ bây giờ, cần có sự cân bằng trong việc quy định kinh doanh. Và các tổ chức đang xây dựng hoặc sử dụng AI phải xác định mức độ rủi ro mà họ có thể chấp nhận cho doanh nghiệp của mình.

Và chính vì vậy mà việc mời giám đốc pháp lý, giám đốc tuân thủ, giám đốc rủi ro tham gia vào các cuộc trò chuyện này là cực kỳ quan trọng, đúng không? Tôi không nghĩ rằng có một mức độ phù hợp cho tất cả. Ngay cả trong một tổ chức. Chúng ta đã đề cập đến việc chẩn đoán bệnh nhân, nhưng nếu bạn sử dụng AI để phân bổ giường bệnh và sử dụng AI để tự động thực hiện công việc đó, thì điều đó sẽ ít rủi ro hơn so với việc bộ phận tiếp thị của bạn sử dụng AI cho việc tiếp thị mục tiêu, phải không? Có thể coi điều đó là ít rủi ro hơn không?

Và tôi nghĩ rằng đó là lý do tại sao cần có một ban chỉ đạo AI hoặc một nhóm liên quan đến cuộc trò chuyện. Đưa ra khỏi phạm vi nhóm CNTT hoặc AI của bạn để thu hút các nhà lãnh đạo doanh nghiệp và thảo luận, cũng như xác định mức độ chấp nhận rủi ro cho tổ chức của riêng bạn.

Tôi nghĩ đó là điều quan trọng nhất để xác định mức độ rủi ro. Không có một quy mô phù hợp cho tất cả, ngay cả ở cấp độ tổ chức. Nó sẽ phụ thuộc vào khả năng của công cụ tiếp thị AI so với những gì công cụ AI đang làm trong nhà máy.

Rất khác nhau, nhưng bạn hiểu đấy, các bên liên quan phải cân nhắc. Và tôi có một nguyên tắc chính trong cuốn sách, Adele, gọi là trách nhiệm giải trình. Tôi nghĩ rằng đây là một chủ đề quan trọng phải thảo luận, vì trách nhiệm giải trình liên quan đến cách bạn xây dựng dự án hoặc sản phẩm của mình, cũng như thiết kế và xác định trước.

Ai sẽ đảm nhận trách nhiệm khi có sự cố xảy ra? Vì chúng ta đã thấy nhiều kịch bản trong những năm qua. Khi thuật toán gây ra lỗi, CEO có thể phải đối mặt với các cơ quan thực thi pháp luật. Đôi khi nhà khoa học dữ liệu bị sa thải, phải không?

Không có giao thức cố định cho điều đó. Vì vậy, việc xác định trước trách nhiệm giải trình thực ra có hai mục đích chính. Một là nó tạo ra một cơ chế đảm bảo rủi ro đó. Cuộc thảo luận. Bạn biết rồi, nó đòi hỏi việc tập hợp tất cả các bên liên quan lại và thảo luận về vấn đề. Và thứ hai, nó gần như thiết lập mức độ khẩn cấp cho cuộc thảo luận đó và giảm thiểu các rủi ro có thể xảy ra, phải không?

Vì tôi thực sự tin rằng, tất cả chúng ta, đặc biệt là những người yêu công nghệ, không có ý định gây hại. Chỉ là trong quá trình làm việc và trong công cụ quản lý dự án của chúng ta thiếu biện pháp để kiểm soát những rủi ro này. Trong thời gian dài, chúng ta đã tập trung chủ yếu vào ROI và tạo ra giá trị tích cực từ AI.

Và nói thật, là một người yêu công nghệ, tôi rất dễ bị mê hoặc bởi những khía cạnh thú vị mà AI mang lại, nhưng khi triển khai nó ở mức độ doanh nghiệp, tôi nghĩ việc đưa khía cạnh rủi ro vào xem xét là rất quan trọng. Thậm chí, thậm chí chỉ là việc thêm một bước kiểm tra đơn giản vào công cụ quản lý dự án của bạn, bạn hiểu chứ, sẽ có những rủi ro liên quan đến lòng tin và đạo đức cần được xem xét.

Và đó là điều cần phải đề cập. Ngay cả khi bạn chỉ dành 5% thời gian lập kế hoạch cho toàn bộ dự án để nghĩ về điều đó. Nếu bạn xác định được những rủi ro đó, tôi thực sự tin rằng bạn sẽ làm mọi cách để khắc phục. Cuộc thảo luận không thể bị bỏ qua. Cuộc trò chuyện chưa diễn ra hôm nay vì quy trình của chúng ta không thiết lập để bắt buộc cuộc thảo luận đó.

Vậy là đã nhận ra lý do tại sao chúng ta không quan tâm đến những rủi ro này, nhưng may mắn thay, chúng ta đang sống trong một thời điểm khi việc giải quyết những rủi ro này trở nên cấp bách hơn, đặc biệt sau khi có các quy định. Điều này sẽ trở thành một nhiệm vụ, nhưng tôi tin rằng có rất nhiều công ty có thể bắt đầu thực hiện điều đó ngay hôm nay.

Adel Nehme: Bạn đã đề cập đến khía cạnh trách nhiệm giải trình và đó là một chủ đề phù hợp với câu hỏi tiếp theo của tôi,  Bởi vì, những người lãnh đạo đang nỗ lực áp dụng những khía cạnh, đang lắng nghe podcast này. Họ đang cố nghĩ xem làm thế nào để triển khai những cuộc trò chuyện này một cách hiệu quả trong tổ chức của mình?

Vậy theo ý kiến của bạn, ai nên đứng ra dẫn đầu việc tổ chức các bên liên quan khác nhau thảo luận về rủi ro tiềm ẩn của các trường hợp sử dụng AI? Và quan trọng hơn, những bên liên quan nên là ai? Bạn đã đề cập đến nhiều hồ sơ khác nhau từ các bên liên quan về pháp lý, rủi ro, chức năng kinh doanh và danh sách kiểm tra. Hãy cho chúng tôi biết ý kiến của bạn về vấn đề này.

Beena Ammanath: Vâng, tôi hiểu rằng đó là một điểm quan trọng. Và thực sự, đó là một phần vai trò của tôi tại Deloitte. Vì vậy, tôi có thể chia sẻ ý kiến từ kinh nghiệm của mình, phải không? Tôi đang dẫn đầu sự thay đổi quy mô này trong một công ty lớn như Deloitte. Và điều đó xuất phát từ nhiều năm kinh nghiệm xây dựng sản phẩm phân tích dữ liệu và AI, sau đó đưa chúng ra thị trường.

Tôi đã nhận ra những khuyết điểm đó. Vì vậy, tôi nghĩ rằng nếu công ty tiến xa hơn, họ có thể cần một chuyên gia về đạo đức AI hoặc một nhà lãnh đạo như tôi để điều hành yếu tố đạo đức và tin cậy công nghệ, đảm bảo rằng nó bao gồm các thành phần tin cậy và đạo đức.

Và tôi đã nhìn thấy một số điều giữa các tổ chức, vì có những ngành nghề đang trong quá trình tự điều chỉnh và cũng có sự phát triển, chia sẻ các phương pháp làm việc hiệu quả. Vì vậy, một trong những yếu tố quan trọng là bắt đầu với việc tập hợp Ban Chỉ đạo này – một đội ngũ gồm các bên liên quan, từ kinh doanh đến chức năng, CEO hoặc đại diện của CEO nên tham gia vào ban chỉ đạo này. Sau đó, các bộ phận chức năng như tiếp thị, tài chính, pháp lý và tuân thủ, rủi ro, cũng phải có vị trí, tức là bao gồm các nhóm kinh doanh và chức năng của bạn vào cuộc thảo luận.

Cảm ơn. Ủy ban này bao gồm hầu hết các nhà lãnh đạo cấp cao, để có thể thảo luận, xác định các dữ liệu và phát triển. Đó là yếu tố quan trọng nhất. Thứ hai là áp dụng tiêu chuẩn đạo đức liền mạch. Tôi cho rằng tổ chức cần đạt đến một mức độ thông thạo AI nhất định, nhưng nếu không, bạn biết đấy, hãy đào tạo nhân viên về kiến thức cơ bản về AI.

Và có thể họ tham gia một khóa học về xử lý dữ liệu để đạt được điều đó. Tuy nhiên, điều cơ bản là hiểu về AI. Nhưng có một yếu tố quan trọng mà chúng ta cần tập trung vào, đó là nguyên tắc đạo đức, nguyên tắc tin cậy mà tổ chức tin tưởng. Và làm thế nào để các nhân viên có thể đồng lòng. Vì vậy, mọi người đều đồng ý và sử dụng cùng một ngôn ngữ.

Khi câu hỏi về công bằng được đặt ra, họ biết rằng tổ chức theo dõi và liên hệ với ai. Điều đó dẫn đến bước thứ ba. Vì vậy, thứ nhất là cần có một ủy ban đa chức năng trong doanh nghiệp. Thứ hai là đào tạo AI ở cấp cơ sở, đào tạo đạo đức AI và thứ ba là thay đổi các quy trình.

Nếu bạn đang sử dụng công cụ quản lý dự án, dù là công cụ nào, hãy đảm bảo rằng có các kiểm tra được thực hiện. Chúng ta kiểm tra những rủi ro khi bắt đầu một dự án mới, như rủi ro tài chính, rủi ro uy tín thương hiệu. Cũng cần xem xét rủi ro liên quan đến niềm tin và đạo đức trong việc sử dụng AI không.

Hãy chắc chắn thực hiện điều đó. Đồng thời, điều chỉnh quy trình của bạn để có thể thay đổi và cải thiện. Và nếu một nhân viên có bất kỳ lo ngại nào, bạn biết rằng họ sẽ liên hệ với ai và tìm kiếm sự hỗ trợ. Điều cực kỳ quan trọng là tất cả nhân viên trong tổ chức đều có kiến thức, hiểu rõ các quy trình và áp dụng chúng.

Lý do không chỉ dừng lại ở nhóm của bạn. Không chỉ nhóm khoa học dữ liệu của bạn cần suy nghĩ về đạo đức. Có thể ngay bây giờ, trong nhóm tiếp thị của bạn cũng có một thực tập sinh đang đánh giá một công cụ AI để tiếp thị được cá nhân hóa. Trong trường hợp đó, cần đảm bảo rằng hầu hết nhân viên cấp dưới cũng biết những câu hỏi quan trọng cần đặt ra và sẵn sàng trao đổi thông tin.

Dù chỉ là việc hỏi xem tập dữ liệu huấn luyện nào đã được sử dụng. Họ nên được trao quyền, có đầy đủ thông tin để đặt những câu hỏi thích hợp, từ đó giảm thiểu nguy cơ xảy ra vấn đề trong tương lai. Và sau đó, cần có một quy trình để thực hiện điều đó.

Để có thêm thông tin, họ nên liên hệ với nhóm trung tâm để được hướng dẫn. Vì vậy, tôi nghĩ rằng đây là ba bước cần thiết mà bất kỳ tổ chức nào đang sử dụng hoặc xây dựng AI đều có thể áp dụng ngay. Và việc quan trọng cần lưu ý là điều này không chỉ áp dụng cho các công ty công nghệ lớn hoặc những công ty đang phát triển AI.

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

Thậm chí nếu công ty của bạn chỉ sử dụng AI đơn giản, việc áp dụng các ứng dụng khác nhau vẫn sẽ có những tác động đạo đức khác nhau. Vì vậy, cần phải xem xét cả khía cạnh sáng tạo và ứng dụng khi đánh giá tác động mà nó mang lại.

Adel Nehme: Tuyệt vời. Một điều rút ra từ cuộc trò chuyện này là chính xác khi nào chúng ta nên bắt đầu cuộc thảo luận này. Tôi đã đọc nhiều về ý nghĩa của việc dịch chuyển sang trái trong quá trình xem xét dữ liệu đáng tin cậy.

Ý tưởng là xem xét dữ liệu và hệ thống AI từ sớm trong quá trình phát triển. Vì vậy, có thể chúng ta nên bắt đầu cuộc thảo luận này tại giai đoạn nào trong quá trình phát triển khi các trường hợp sử dụng AI đang được xây dựng?

Beena Ammanath: Tôi sẽ trả lời bằng bối cảnh trụ cột của tôi về AI có trách nhiệm. Khái niệm về AI có trách nhiệm, có thể nói, là một khái niệm mang tính triết lý và mơ hồ nhất. Nhưng chính khi chúng ta dừng lại và đặt câu hỏi, liệu điều đó có đúng không? Chúng ta có nên làm điều này không? Điều đó có phù hợp với lợi ích của con người, xã hội và tương lai không?

Tôi nghĩ đến kịch bản kinh điển trong Công viên kỷ Jura, bạn có nhớ không? Bạn biết đó, chỉ vì các nhà khoa học có thể làm điều gì đó, không cần dừng lại và suy nghĩ về hậu quả. Tôi nghĩ đây là nơi mà chúng ta phải kiểm soát được công nghệ mạnh mẽ này, và nếu chúng ta định sử dụng nó theo một cách cụ thể, nó sẽ tạo ra những tác động lâu dài.

Vì vậy, tôi nghĩ rằng chúng ta, những người công dân đầy trách nhiệm. Chúng ta không chỉ là những kỹ sư hoặc nhà khoa học, nhưng càng ngày càng quan trọng hơn, tôi cho rằng đó là nhiệm vụ chúng ta phải thực hiện. Thậm chí khi chúng ta có ý tưởng đầu tiên, như việc xây dựng một điều gì đó cụ thể, cho dù đó là một mô hình ngôn ngữ lớn hay việc sử dụng AI theo một cách cụ thể, chúng ta cần đặt câu hỏi về tính đúng đắn của việc đó, phải không?

Đúng, tôi nghĩ đó là lúc chúng ta đặt ra ý tưởng đầu tiên, hãy dừng lại và hỏi chính mình, liệu chúng ta nên theo đuổi con đường này không, và hãy chú ý, tôi đã thấy nhiều tình huống mà bạn biết, và một lần nữa, tôi sẽ chuyển từ quan điểm triết học sang một góc nhìn thực tế trong kinh doanh.

Tôi tin rằng tất cả các nhà công nghệ đều có tư duy tốt, muốn làm điều tốt, muốn thay đổi thế giới trở nên tốt đẹp hơn. Tôi là một người lạc quan, nhưng đồng thời cũng rất thực tế. Vì chúng ta không được đào tạo để suy nghĩ về tác động lâu dài.

Chúng ta thường chỉ nhìn… Phương tiện truyền thông. Oh, có một cơ hội để tăng doanh thu hoặc chúng ta nhìn thấy cơ hội tiết kiệm chi phí. Và tôi sẽ kể cho bạn nghe về một số tình huống tuyệt vời. Một trong số đó là một doanh nghiệp có mục tiêu cực kỳ tốt, mong muốn đảm bảo rằng họ giữ được vị trí hàng đầu. Đó là một trong những vai trò trước đây của tôi, trong những ngày đầu của AI, nơi mà tôi kết hợp hoạt động trên mạng xã hội của nhân viên với dữ liệu email của họ.

Và hãy xem liệu họ có hài lòng không. Thay vì tập trung vào việc cố gắng giữ lại nhân viên hàng đầu và ngăn chặn họ ra đi, chúng ta nên đề cao sự chủ động. Sử dụng AI là một cách tốt. Tuy nhiên, nhân viên có nhận thức rằng việc kết hợp này có mục đích tốt không?

Hãy nhìn vào sự ra đời của mạng xã hội, nơi mà mục đích chính là kết nối và tạo liên kết giữa các cộng đồng. Ý tưởng này thật tuyệt vời. Nhưng hãy dừng lại và nghĩ xem quảng cáo nhắm mục tiêu là gì, và tác động của nó đối với tâm trí của thanh thiếu niên ra sao.

Tôi nghĩ chúng ta cần có những rào cản được thiết lập. Đây là lúc tôi có tinh thần lạc quan. Nếu chúng ta có thể suy nghĩ trước một chút và đảm bảo rằng các quy trình được thiết lập theo cách chúng ta suy nghĩ và có khả năng xác định các khía cạnh mà nó có thể sai. Cảm ơn. Tôi tin rằng chúng ta có thể giải quyết thành công vấn đề này, phải không?

Vì vậy, tôi nghĩ khi ý tưởng ban đầu xuất hiện, chúng ta nên dừng lại và suy nghĩ, và điều này cần diễn ra từ giai đoạn đầu. Và đương nhiên, suy nghĩ này phải kéo dài suốt quá trình. Đây không chỉ dừng lại ở giai đoạn ý tưởng hay thiết kế và phát triển. Nó lan tỏa vào MLOps của bạn, bởi vì AI và cách máy học hoạt động đang thay đổi.

Vậy nên, khi mô hình trôi dạt xuất hiện trong quá trình tạo ra giá trị, việc trôi dạt này cũng đồng thời diễn ra ở khía cạnh rủi ro đạo đức. Điều này đòi hỏi bạn phải theo dõi liên tục. Những bước đầu tiên xuất phát từ việc hình thành ý tưởng đến khi mô hình dừng hoạt động cũng đều quan trọng.

Adel Nehme: Vâng, con đường vào địa ngục được lấp đầy bởi những ý định tốt, như mọi người thường nói. Và khi chúng ta thảo luận về điều này, mạng xã hội là một ví dụ tuyệt vời. Tôi nghĩ một trong những lý do tại sao hệ sinh thái mạng xã hội đã phát triển sự cạnh tranh như vậy.

Và hiện nay chúng ta đang trải qua nhiều áp lực cạnh tranh trong lĩnh vực AI sáng tạo.  Có nhiều tổ chức đang tham gia vào cuộc đua này trong giai đoạn hứng khởi của chúng ta. Mọi người đều đang suy nghĩ về các trường hợp sử dụng AI tổng quát, cách triển khai và vận hành chúng. Có một sự cân bằng tinh tế giữa việc là người đầu tiên điều chỉnh trường hợp sử dụng và tạo ra AI đáng tin cậy cũng như tầm quan trọng của việc xây dựng các hệ thống AI mang lại lợi ích bền vững cho loài người.

Vậy nên, khi áp dụng công nghệ AI ngay lúc này, khi chúng ta đang chứng kiến sự ra đời của nhiều trường hợp và ứng dụng AI tổng quát, làm thế nào các tổ chức có thể đảm bảo một sự cân bằng hiệu quả? Cô nghĩ rằng, điểm xuất phát tốt nhất để tiếp cận vấn đề này là ở đâu? 

Beena Ammanath: Đúng vậy, tôi cho rằng việc thảo luận sớm về các rủi ro này, bằng cách chủ động suy nghĩ về cách chúng có thể xảy ra, là một xu hướng tuyệt vời để bắt đầu bất kỳ cuộc trò chuyện nào về AI. Tôi nghĩ chúng ta không nên để đến cuối ngày. Chúng ta không thể loại bỏ mọi khía cạnh, đúng không?

Ý tưởng là chuyển nó thành một cuộc trò chuyện đầy đủ thông tin và đưa ra quyết định. Và chắc chắn sẽ luôn có những hậu quả không lường trước được. Liệu chúng ta có thể giảm thiểu những hậu quả đó không? Liệu chúng ta có thể đảm bảo tính chủ động bằng cách suy nghĩ về những cách mà lỗi có thể xảy ra và giảm thiểu những hậu quả không lường trước được?

Adel Nehme: Tuyệt vời. Chúng ta đã thảo luận và nhấn mạnh tầm quan trọng của việc đọc viết hoặc sự thông thạo AI và cấp độ cơ bản tương ứng. Tôi nghĩ rằng việc có một cấp độ thông thạo cơ bản trong ngôn ngữ AI hoặc ngôn ngữ dữ liệu chung trong tổ chức sẽ thúc đẩy cuộc trò chuyện và tạo sự gắn kết xung quanh trách nhiệm và rủi ro.

Vì vậy, chúng ta cũng có thể đề cập đến sự trôi chảy của AI, điều mà chúng ta đặc biệt quan tâm ở đây. Trong việc xử lý dữ liệu, bạn nghĩ rằng các yếu tố cơ bản của AI đáng tin cậy trong tổ chức là gì?

Beena Ammanath: Khi xem xét khía cạnh đó, tôi nghĩ chúng ta đã đề cập đến hầu hết các khía cạnh và còn hai khía cạnh khác mà tôi sẽ bàn luận, chẳng hạn như quyền riêng tư trong ngữ cảnh AI. Chúng ta có rất nhiều quy định về quyền riêng tư và bảo vệ dữ liệu, nhưng khi dữ liệu đó được sử dụng bởi AI, làm cách nào để xóa mô hình đã được đào tạo trên một tập dữ liệu cụ thể?

Các khía cạnh về bảo mật dữ liệu mà AI mang lại là rất quan trọng. Chúng ta cần cân nhắc và đặt nhiều sự chú trọng vào việc này. Một khía cạnh cuối cùng là an toàn và bảo mật. AI thực sự có thể tiết lộ các lỗ hổng trong hệ thống của bạn. Chúng ta đã nhìn thấy những tình huống trong đó các chatbot có thể phân biệt chủng tộc.

Vì vậy, tôi nghĩ rằng do cách hoạt động của nó, việc xây dựng và triển khai AI không phải là như các phần mềm truyền thống. Nó tạo ra kết quả liên tục. Nó không ngừng phát triển và thay đổi. Logic đang thay đổi. Vậy làm thế nào để đảm bảo rằng bạn đang bảo vệ chống lại các cuộc tấn công mạng, đặc biệt khi sử dụng AI trong việc điều chỉnh động cơ phản lực hoặc trong các nhà máy sản xuất? Chúng ta đang sống trong một thế giới mà IoT tồn tại khắp mọi nơi. Nếu bạn không cẩn thận về bảo mật và những lỗ hổng mà AI có thể tiết lộ, tôi nghĩ rằng bạn đang tiếp tục bước vào một tình huống nguy hiểm. Vì vậy, suy nghĩ về an ninh và an toàn là rất quan trọng.

Chúng ta cũng đã nghe nói về an toàn trong ngữ cảnh quyết định mà AI đưa ra hiện nay. Tôi nghĩ an toàn ở đây bao gồm an toàn về mặt vật lý. Chúng ta đã nghe những ví dụ về việc khi xe tự lái đối mặt với tình huống cần phải đâm vào ai? Người đi bộ nào? Đó là những kịch bản mà chúng ta đã nghe nói đến.

Tuy nhiên, đó cũng là vấn đề an toàn từ góc độ tinh thần và tâm lý. Phải chăng việc sử dụng loại AI này sẽ tạo ra những hành vi nào từ phía con người? Điều đó sẽ ảnh hưởng đến sức khỏe tinh thần như thế nào? Liệu nó có tăng nguy cơ tự sát ở thanh thiếu niên thông qua phần mềm mà chúng ta đang xây dựng không?

Vì vậy, tôi cho rằng việc suy nghĩ về an toàn là rất quan trọng và cần được xem xét một cách toàn diện, không chỉ giới hạn ở mặt vật chất. Cũng cần đảm bảo an toàn từ khía cạnh tinh thần và tâm lý. Điều này sẽ đảm bảo rằng sản phẩm hoặc giải pháp AI của bạn thực sự đáng tin cậy. Cuối cùng, tôi muốn nhắc đến khả năng giải thích. Tôi nhận thấy rằng việc giải thích một thuật toán và cách hoạt động của nó có thể gặp khó khăn.

Tuy nhiên, đối với các tổ chức nghiêm túc về AI đáng tin cậy, điều đó cần phải được giải thích một cách mà các bên liên quan cuối cùng cũng có thể hiểu. Nghĩa là bạn cần giải thích. Giải thích cách thuật toán hoạt động không chỉ đối với CEO và hội đồng quản trị, mà còn đối với khách hàng cuối cùng của bạn. Vì vậy, tôi cho rằng khả năng giải thích chỉ có ý nghĩa khi người dùng cuối cùng có thể hiểu được, không thể chỉ dựa trên một tài liệu kỹ thuật phức tạp mà nói rằng đã có khả năng giải thích.

Tôi cho rằng bạn cần đạt đến mức độ sắc thái đó, đặc biệt khi minh bạch là rất quan trọng, bạn cần có khả năng giải thích theo cách mà người dùng cuối cùng có thể hiểu được. Và ở đây, tôi thấy sự tương đồng với Jenny. Tôi đang đóng một vai trò rất quan trọng.

Hãy suy nghĩ về điều đó. Jenny thực sự mạnh mẽ và có nhiều tiềm năng. Tuy nhiên, hãy nghĩ về khả năng giải thích mà AI có thể cung cấp, với khả năng giải thích dễ dàng theo các ngôn ngữ khác nhau, tùy thuộc vào đối tượng người dùng của bạn. Tôi tin rằng AI tổng hợp có thể giúp bạn đạt được điều này.

Do đó, nếu có mục tiêu cụ thể và các bên liên quan trong nhóm lãnh đạo của bạn đặt sự ưu tiên vào điều này, thì công nghệ chính có thể được sử dụng để giải quyết vấn đề này.

Adel Nehme: Đúng vậy, tôi không thể đồng tình nhiều hơn và cá nhân tôi rất hào hứng với tiềm năng của AI và việc mở khóa những khả năng mới về hiểu biết dữ liệu theo thiết kế. Khả năng sẵn có trong công nghệ này đã mang lại bối cảnh hữu ích. Và khi chúng ta nói về tiềm năng của AI trong tương lai, tôi muốn thảo luận với bạn về những gì chúng ta dự đoán cho 12 tháng tới trong lĩnh vực này.

Vậy bạn nghĩ những sự kiện nào sẽ định hình AI đáng tin cậy trong thời gian tới? Bạn nghĩ AI sáng tạo sẽ phát triển như thế nào? Và tôi rất mong được nghe quan điểm của bạn ở đây.

Beena Ammanath: Adele, tôi sẽ bắt đầu với bạn, bạn biết đấy, khi AI sáng tạo xuất hiện, thực tế là nó không phải là điều mới, phải không? Các mô hình ngôn ngữ lớn đã được cộng đồng công nghệ nghiên cứu từ một thời gian khá lâu. Tôi nghĩ chúng ta đã xem xét nó cách đây 12 năm. Vì vậy, thực tế là nó chỉ mới được đưa vào suy nghĩ của công chúng trong vài năm gần đây. Tôi đã nhận được câu hỏi như, “Ồ, liệu bạn có đưa thêm AI tổng hợp vào danh sách đáng tin cậy không?” Tôi hy vọng. Và tôi trả lời, Không, mọi thứ vẫn có thể được áp dụng, nền tảng vẫn giữ nguyên. Bạn có thể gọi nó bằng nhiều cái tên khác nhau.

Tuy nhiên, AI sáng tạo vẫn tuân theo những nguyên tắc cơ bản giống như AI đáng tin cậy. Vì vậy, những gì tôi thấy sẽ phát triển trong 12 tháng tới là sự đa dạng của các trường hợp sử dụng. Thực tế, chúng tôi đã biên soạn một bộ sưu tập gồm 60 trường hợp sử dụng AI trong các ngành khác nhau.

Vì vậy, chúng tôi nhận thấy rằng sẽ có một số trường hợp sử dụng có tác động cao và rủi ro thấp xuất hiện trong 12 tháng tới. Tôi tin rằng sẽ có sự nhận thức rõ hơn về các yếu tố rủi ro và các phương pháp hiệu quả từ các ngành khác nhau, những gì không hiệu quả và nó có thể được triển khai hiệu quả ở đâu và chúng ta cần thực hiện những gì? Có vẻ như chúng ta cần thêm rào cản, phải không?

Tôi tin rằng trong tương lai sẽ có nhiều ứng dụng thực tế hơn về AI sáng tạo. Tôi cũng rất vui mừng vì sự quan tâm đáng kể về quy định AI hiện nay, và hy vọng rằng chúng ta sẽ chứng kiến những tiến bộ về lĩnh vực này. Tất nhiên, điều này sẽ mất thời gian, nhưng tôi hy vọng đây sẽ là thời điểm mà nhiều tổ chức sẽ bắt đầu áp dụng một số cấp độ tự điều chỉnh và quan tâm đến khía cạnh AI đáng tin cậy.

Vì vậy, tôi rất lạc quan về những mục tiêu mà chúng ta đề ra với AI, miễn là chúng ta cân nhắc và giải quyết những hạn chế.

Adel Nehme: Đúng, có lẽ bạn đang đề cập đến quy định ở đây. Cô đã đề cập đến sự phát triển của khung pháp lý theo thời gian khi AI trở nên mạnh mẽ hơn?

Beena Ammanath: Tôi nghĩ rằng cuộc trò chuyện về quy định đã diễn ra từ lâu. Thách thức ở đây là, và như chúng ta đã thảo luận trong cuộc trò chuyện hôm nay, Adele, không có một giải pháp duy nhất cho tất cả. Nó không thể chỉ đơn giản là một quy định AI. Sẽ có những nguyên tắc tổng quát và ý tưởng tổng thể về hướng đi của chúng ta.

Dù ở cấp độ quốc gia hay toàn cầu, cuối cùng, quy định AI sẽ phụ thuộc vào trường hợp sử dụng. Tôi nhận thấy có hai loại quy định chính. Một là áp dụng cho các ngành công nghiệp hiện tại, đúng không? Các ngành công nghiệp truyền thống như chăm sóc sức khỏe hay ngân hàng đã có quy định đó. Trong trường hợp này, quy định sẽ được mở rộng để đảm bảo tương thích với tác động của AI.

Hoặc có thể sẽ đưa ra quy định bổ sung. Nhưng còn một loại ngành khác, chủ yếu là những ngành mới nổi trong vài thập kỷ qua. Đó là những lĩnh vực chưa có quy định đặc thù, như nền tảng công nghệ rộng hơn hoặc phương tiện truyền thông xã hội. Điều đó có nghĩa là chúng ta có thể thấy nhiều quy định hơn ở đây, nhưng điểm quan trọng là tôi không nghĩ rằng chúng sẽ chỉ là một quy định đơn lẻ.

Quy định sẽ khác nhau tùy thuộc vào ngành và trường hợp sử dụng.

Adel Nehme: Rất tuyệt. Vậy là chúng ta sắp kết thúc rồi. Bina, tôi thật sự rất vui khi có bạn tham gia chương trình. Tôi đánh giá cao những hiểu biết của bạn. Trước khi kết thúc, liệu bạn có lời kêu gọi hành động hoặc lời chia tay cuối cùng nào muốn chia sẻ với khán giả không?

Beena Ammanath: Tôi nghĩ dựa trên khán giả và công việc mà họ đang làm, tôi tin rằng bạn đang nắm giữ một quyền lực to lớn với công nghệ đó. Đã đến lúc chúng ta đứng lên và trở thành những công dân có trách nhiệm với điều đó.

Adel Nehme: Thật tuyệt. Cảm ơn cô rất nhiều, Bina, vì đã tham gia podcast.

Beena Ammanath: Cảm ơn anh đã mời tôi.

Tổng kết

Cuộc trò chuyện giữa Beena Ammanath và Adel Nehme đã cung cấp thông tin hữu ích về tầm quan trọng của Trí thông minh nhân tạo. Không thể phủ nhận tính tiện dụng của AI, nhưng song song với đó cũng tồn tại nhiều khía cạnh về mặt đạo đức. Với những chia sẻ từ NativeX, bạn sẽ hình dung được những bước tiến mới, và sự hòa nhập của AI vào cuộc sống.

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

Tác giả: NativeX

Blog học tiếng anh

TRẢI NGHIỆM NGAY LỚP HỌC NÉN NativeX ĐỘC QUYỀN

Hãy cùng trải nghiệm Lớp Học Nén NativeX độc quyền với phương pháp IN DẤU được phát triển dựa trên nguyên lý Tâm lý học ngôn ngữ giúp tiếp thu tiếng Anh tự nhiên và hiệu quả.

HỌC THỬ MIỄN PHÍ NGAY!