fbpx
Native X
ĐĂNG KÝ HỌC THỬ MIỄN PHÍ NGAY

AI – Trí Tuệ Nhân Tạo Có Phải Đang Là Mối Đe Dọa?

Trí thông minh nhân tạo (AI) đang mở ra những cánh cửa mới trong thời đại hiện đại. Tuy nhiên, nếu không áp dụng đúng cách và kiểm soát chặt chẽ, AI có thể trở thành mối đe dọa đáng kể đối với loài người.

Không thể phủ nhận rằng trí thông minh nhân tạo (AI) mang đến nhiều ưu điểm, tuy nhiên, khi công nghệ này vượt quá khả năng kiểm soát của con người, nguy cơ tiềm ẩn cũng gia tăng đáng kể. Vậy trong tương lai AI có phải là mối đe dọa của con người hay không thì cùng NativeX tìm hiểu trong bài viết này nhé.

Trí thông minh nhân tạo có thật sự ảnh hưởng đến con người

Trí thông minh nhân tạo có thật sự ảnh hưởng đến con người

Những nguy cơ của trí thông minh nhân tạo đối với con người

Trí tuệ nhân tạo (AI) là một lĩnh vực trong khoa học máy tính, liên quan đến việc mô phỏng quá trình ra quyết định và tư duy giống như con người. Các chương trình này có khả năng tự động điều chỉnh các thuật toán bằng cách phân tích dữ liệu và cải thiện hiệu suất mà không cần sự can thiệp của con người.

Câu trả lời về những rủi ro ẩn sau trí thông minh nhân tạo (AI) vẫn chưa rõ ràng, khi các chuyên gia hàng đầu tiếp tục tranh luận về mức độ nguy hiểm của công nghệ này. Tuy nhiên, họ đã đồng thuận về những lo ngại hiện nay, nếu không có biện pháp phòng tránh thích hợp.

Khi trí tuệ nhân tạo (AI) xuất hiện, nhiều hoạt động trong cuộc sống hàng ngày trở nên thuận tiện hơn. Tuy nhiên, công nghệ này vẫn đưa ra những thách thức đáng kể, đặc biệt là trong việc tương tác với con người.

Trí tuệ nhân tạo (AI) có khả năng hoạt động độc lập dựa trên lập trình của con người.

Trí tuệ nhân tạo (AI) có khả năng hoạt động độc lập dựa trên lập trình của con người

Nếu được sử dụng với mục đích không đúng, công nghệ này có thể tạo ra những hậu quả khó lường, như thao túng quan điểm xã hội hoặc phổ biến thông tin không chính xác…

Một trong những ưu điểm lớn của AI là khả năng tự động hóa công việc, từ đó giảm bớt gánh nặng lao động cho con người. Trong nhiều ngành công nghiệp, quá trình sản xuất và dịch vụ có thể được tối ưu hóa, giúp tiết kiệm thời gian và chi phí. Tuy nhiên, con người có thể sẽ mất công việc nếu chúng ta chỉ tận dụng các loại máy móc hiện đại.

AI có thể tự động hoá cá loại máy móc trong ngành sản xuất và công nghiệp

AI có thể tự động hoá cá loại máy móc trong ngành sản xuất và công nghiệp

 

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

 

Bản ghi Podcast

Một số từ ngữ trong bản ghi từ chương trình DataFramed sẽ được NativeX điều chỉnh lại sao cho phù hợp và dễ hiểu dành cho bạn đọc.

Adel Nehme: Xin chào mọi người, chào mừng đến với DataFramed. Mình là Adel, Nhà Tuyên truyền và Giáo viên về Dữ liệu tại Datacamp. Nếu bạn là người mới, thì DataFramed là một podcast hàng tuần, nơi chúng tôi khám phá cách cá nhân và tổ chức có thể thành công với dữ liệu và trí tuệ nhân tạo. Đã gần một năm kể từ khi ChatGPT được ra mắt, đưa trí tuệ nhân tạo vào ý thức chung và quá trình này.

Từ khoảnh khắc đó, chúng ta đã chứng kiến một cuộc tranh luận sôi nổi trong cộng đồng dữ liệu và trí tuệ nhân tạo, cũng như trong cuộc đối thoại công cộng nói chung. Trọng tâm của cuộc tranh luận này là liệu trí tuệ nhân tạo có hoặc sẽ dẫn đến rủi ro tồn tại cho loài người hay không. Chúng ta đã thấy những tác giả như: Eliezer Yudkowsky, Yuval Noah Harari và những người khác kêu gọi báo động về việc AI có thể nguy hiểm không kém, thậm chí còn nguy hiểm hơn cả vũ khí hạt nhân.

Chúng ta cũng đã thấy các nhà nghiên cứu về trí tuệ nhân tạo và những nhà lãnh đạo doanh nghiệp ký tên các đơn kiến nghị và đẩy mạnh để chính phủ đưa ra quy định nghiêm ngặt về trí tuệ nhân tạo. Ngược lại, chúng ta cũng đã thấy những người nổi tiếng trong lĩnh vực này, như: Andrew Ng và Yann LeCun, kêu gọi sự phát triển của mã nguồn mở về trí tuệ nhân tạo, không phải chống lại. Vậy làm thế nào chúng ta có thể điều hướng trong cuộc tranh luận này?

Và thực sự, mức độ rủi ro của trí tuệ nhân tạo nằm ở đâu? Quan trọng hơn, làm thế nào chúng ta có thể đặt nguy cơ của trí tuệ nhân tạo vào bối cảnh với các nguy cơ hệ thống khác mà nhân loại đang đối mặt, như biến đổi khí hậu, rủi ro của chiến tranh hạt nhân, và những vấn đề khác nữa? 

Làm thế nào chúng ta có thể quy định trí tuệ nhân tạo mà không rơi vào bẫy của sự kiểm soát quy định, nơi một vài người ưu tú và mạnh mẽ hưởng lợi từ quy định, làm chìm đuối đối thủ trong quá trình này?

Để giải đáp những câu hỏi này, chúng ta sẽ trò chuyện với ông Trond Arne Undheim. Trond Arne Undheim là một nghiên cứu viên về rủi ro hệ thống toàn cầu, đổi mới và chính sách tại Đại học Stanford, ông là người đứng đầu Cascading Risks Study, một nghiên cứu nhằm hiểu rõ cách các rủi ro hệ thống khác nhau mà chúng ta đối mặt và tương tác với nhau.

Ông cũng là đối tác đầu tư tại Antler, một công ty quỹ đầu tư mạo hiểm giai đoạn đầu toàn cầu đầu tư vào các công ty công nghệ. Ông là CEO và đồng sáng lập Yegii, một mạng lưới hiểu biết với các chuyên gia và tài sản tri thức về sự đảo lộn. Ông cũng là một nghiên cứu viên không cư trú tại Hội đồng Đại Tây Dương, với một danh mục đa dạng về trí tuệ nhân tạo, tương lai của công việc, đạo đức dữ liệu, các công nghệ mới nổi, khởi nghiệp, và nhiều hơn nữa. 

Trong quãng thời gian trước đó, ông đã từng là Giảng viên Cao cấp tại Trường Quản trị Sloan của MIT, một lãnh đạo cấp cao của Oracle, và một chuyên gia quốc gia của Liên minh Châu Âu.

Trong buổi trò chuyện này, chúng ta đã thảo luận về cách mà Trí tuệ Nhân tạo có thể trở thành một mối đe dọa tồn tại đối với loài người, lý do tại sao những lời báo động về rủi ro tồn tại mà chúng ta thấy trên phương tiện truyền thông hiện đại thường còn non nớt và không mang lại lợi ích, cũng như cách mà rủi ro từ AI tương tác với những hình thức rủi ro hệ thống khác mà chúng ta đang đối diện. 

Chúng ta cũng đã nói về nguy cơ bị kiểm soát bởi các quy định với AI, cách tiếp cận tốt nhất để quy định AI và pháp luật, cũng như nhiều điểm khác nữa.

Nếu bạn thích tập này, hãy chắc chắn để lại ý kiến của bạn trong phần bình luận, trên các mạng xã hội hoặc bất cứ nơi nào khác. Và bây giờ, chúng ta sẽ bắt đầu với tập phát sóng hôm nay. Chào Trond, rất vui gặp được bạn trên chương trình.

Trond Arne Undheim: Tôi cũng rất hứng thú. Cảm ơn bạn rất nhiều vì đã mời tôi.

Adel Nehme: Vậy để chuẩn bị cho cuộc trao đổi hôm nay, liệu có phải trí tuệ nhân tạo hiện nay đang là một rủi ro tồn tại đối với nhân loại không?

Trond Arne Undheim: Có và không. Hiện tại đã có những điều chúng ta nhất định cần lo lắng. Khi chúng ta bắt đầu lo lắng thì vấn đề sẽ không tự dưng biến mất Vì vậy, chúng ta phải lo lắng từ bây giờ, ngay cả khi đó chỉ là một rủi ro trong tương lai, nó nhất định sẽ trở thành một rủi ro rất nghiêm trọng nếu chúng ta không xử lý tốt nó, nhưng tôi nghĩ cuộc thảo luận hiện tại đang được phô trương quá mức.

Hiện tại vẫn chưa có dấu hiệu nào cho thấy AI sẽ tiếp quản vị trí của chúng ta trong tương lai gần, và đây chưa phải là thời điểm đáng báo động. Dù đây là thời điểm đối mặt với mối đe dọa tồn tại, tuy nhiên, là người nghiên cứu về những mối đe dọa đó, tôi không nghĩ đến năm và tháng nào đó AI sẽ chiếm đoạt theo bất kỳ hình thức nào để chúng ta có thể thảo luận.

AI sẽ không đe dọa đến con người nếu sử dụng đúng cách

AI sẽ không đe dọa đến con người nếu sử dụng đúng cách

Adel Nehme: Đúng, chúng ta nhất định sẽ thảo luận về điều đó và bàn thảo về cách bạn nhìn nhận về rủi ro tồn tại từ sự phát triển của trí tuệ nhân tạo theo thời gian. Vì vậy, tôi rất hứng thú để nói chuyện với bạn về điều này vì hiện tại bạn đang dẫn dắt một nghiên cứu tại Đại học Stanford về điều bạn mô tả là nghiên cứu về rủi ro lan truyền, chúng ta sẽ nói sâu hơn về nó và về những rủi ro hệ thống tồn tại liên quan đến đó.

Nhưng có thể trước hết, hãy giúp chúng tôi hiểu rõ hơn về nội dung của nghiên cứu và động cơ đằng sau nghiên cứu.

Trond Arne Undheim: Chắc chắn, khái niệm về rủi ro lan truyền là một phép ẩn dụ, rõ ràng là vậy, nhưng cách đơn giản nhất để nghĩ về nó là nghĩ đến một dòng nước hoặc bạn có thể nghĩ đến một thác nước. Bạn thậm chí có thể nghĩ đến một con sông và một đồng bằng sông. Và tôi sử dụng sông Amazon để minh họa điều đó vì có rất nhiều sông con, nhưng ảnh hưởng của toàn bộ hệ thống là kếch sàn.

Nó ảnh hưởng đến một phần lớn của lục địa đó và nhiều hơn nữa. Vì vậy, đó là nơi mà ý tưởng về lan truyền đến. Dự án của chúng tôi nhìn vào tương lai 50 năm tới. Chúng tôi đã tạo ra năm kịch bản. Và chỉ để nhắc nhở, kịch bản là những ý tưởng và khái niệm có thể xảy ra trong tương lai. Và luôn có nhiều lựa chọn, nên chúng tôi chọn năm, có thể là ba hoặc mười lăm trăm kịch bản khác nhau, bạn không bao giờ có thể dự đoán chính xác điều gì sẽ xảy ra.

Nó ảnh hưởng đến một phần lớn của lục địa đó và nhiều hơn nữa. Vì vậy, đó là nơi mà ý tưởng về lan truyền đến. Dự án của chúng tôi nhìn vào tương lai 50 năm tới. Chúng tôi đã tạo ra năm kịch bản. Và chỉ để nhắc nhở, kịch bản là những ý tưởng và khái niệm có thể xảy ra trong tương lai. Và luôn có nhiều lựa chọn, nên chúng tôi chọn năm, có thể là ba hoặc mười lăm trăm kịch bản khác nhau, bạn không bao giờ có thể dự đoán chính xác điều gì sẽ xảy ra.

Nhưng dự án của chúng tôi là, chúng tôi sử dụng tất cả các yếu tố động viên, đặc biệt là yếu tố động viên về công nghệ, và chúng tôi không chỉ nhìn vào tương lai và đối mặt với những rủi ro nào có thể xảy ra, mà chúng tôi còn xem xét cơ hội giảm nhẹ và đặc biệt trong góc nhìn về lan truyền này, điều quan trọng là không nên quá say mê và có thể bị mắc kẹt trong bất kỳ rủi ro cụ thể nào, dù nó có vẻ lớn đến đâu.

Bởi vì bạn có thể sai về cấu hình của rủi ro. Và nếu sau đó bạn đầu tư toàn bộ thời gian, tiền bạc và năng lượng của mình vào một rủi ro sai, đặc biệt là một hoặc hai rủi ro, và bạn sai về điều đó. Bây giờ, bạn thậm chí đang đặt cả nhân loại vào tình thế rủi ro.

 

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

 

Adel Nehme: Tuyệt vời! Và bạn đã nói về việc chọn lựa 5 rủi ro. Hãy giúp chúng tôi hiểu rõ hơn về những rủi ro này là gì và làm sao bạn đã quyết định chọn 5 rủi ro cụ thể này khi thực hiện nghiên cứu?

Trond Arne Undheim: Ừ, tôi không bắt đầu với điều đó chỉ vì toàn bộ nghiên cứu xoay quanh các lan truyền. Chúng tôi đã chọn 5 góc nhìn này, nhưng sau đó, chúng tôi tất nhiên quay trở lại với toàn bộ logic phân chia này, trong đó một trong số đó là góc nhìn về rủi ro khí hậu. Vì vậy, với tôi, rất quan trọng khi có năm góc nhìn như vậy và bây giờ tôi sẽ không liệt kê chúng một cách nhanh chóng.

Vậy là có một góc nhìn về khí hậu. Một là về sự sụp đổ tài chính. Một là về một kịch bản chiến tranh thế giới kiểu cổ điển. Vì vậy, như một tội đồ, nó giống như là địa chính trị. Sau đó, chúng ta có một tình huống sinh học tổng hợp điên đảo. Và sau cùng, chúng ta có một kịch bản rủi ro về Trí tuệ Nhân tạo, kịch bản nắm quyền bởi Trí tuệ Nhân tạo, nhưng điều quan trọng là với tôi là trong mỗi kịch bản này, mặc dù có một yếu tố chính, chúng tôi chỉ làm như vậy để bắt đầu.

Nhưng toàn bộ động cơ của nỗ lực thực sự là nhìn vào mối liên quan giữa những yếu tố này và nhiều, nhiều yếu tố khác nữa. Nhưng điều quan trọng là chúng tôi có năm kịch bản khác nhau có thể xảy ra. Và chúng, hãy gọi đó là chủ yếu được thúc đẩy hoặc ảnh hưởng chủ yếu bởi một loại rủi ro hệ thống quan trọng.

Nhưng điều rất quan trọng là phải nói rằng có vẻ trí thông minh nhân tạo là yếu tố động viên, nhưng là hàng trăm yếu tố khác xung quanh nó đang ảnh hưởng hoặc hình thành có lẽ trí tuệ nhân tạo hoặc khí hậu mà thực sự là yếu tố động viên thực sự.

Adel Nehme: Đúng vậy, và bạn đã đề cập đến sự tương tác giữa các rủi ro và điều mà tôi thực sự thích về cách nghiên cứu được xây dựng là nó đặt các yếu tố tác động rủi ro khác nhau vào bối cảnh của nhau. Ví dụ, rủi ro từ Trí tuệ Nhân tạo không tồn tại độc lập trong một không gian trống rỗng. Nó còn tồn tại trong ngữ cảnh của các rủi ro hệ thống khác như: Biến đổi khí hậu, chiến tranh, như bạn đã đề cập, sinh học tổng hợp và nhiều loại rủi ro khác.

AI đang định hình lại thế giới

AI đang định hình lại thế giới

Trond Arne Undheim: Vậy nên, toàn bộ góc nhìn liên tiếp đến từ nghiên cứu về thảm họa, đúng không, nơi mà nó đã được sử dụng một cách rất thành công để chỉ ra rằng khi một thảm họa tự nhiên xảy ra, và nhân tiện, đây là một cuộc thảo luận lớn, tại sao gọi nó là tự nhiên trong khi thực tế, đó là một thảm họa văn hóa bởi vì tất cả những quyết định chúng ta đưa ra chính là nguyên nhân tạo ra những thảm họa đó.

Đó là một cuộc thảo luận hoàn toàn khác. Nhưng dù sao, khi nhìn vào những sự kiện liên tiếp, nếu chỉ xem xét một thảm họa tự nhiên hoặc một tai nạn do thiên nhiên gây ra, rất rõ ràng rằng không chỉ có một sự kiện đơn lẻ xảy ra mà mỗi sự kiện lại dẫn đến sự kiện tiếp theo. Một trận lụt có thể dẫn đến sự sụp đổ của hệ thống điện và suy giảm cơ sở hạ tầng của con người và những vấn đề tương tự.

Vì vậy, nó đã là một công cụ chúng tôi đã sử dụng trong lĩnh vực nghiên cứu hoặc trong cộng đồng chuyên gia về thảm họa để tổ chức các nỗ lực cứu trợ, và chỉ cần nhìn vào những gì có thể xảy ra tiếp theo và điều gì thường cần được di động hóa để cứu giúp những người trong những tình huống khẩn cấp như vậy. Bây giờ, những ảnh hưởng liên tiếp rộng lớn mà chúng tôi đang nói đến trong nghiên cứu của mình, chúng trải rộng hơn nhiều, vì vậy chúng, chúng không nhất thiết phải liên quan đến một sự kiện cụ thể, mà liên quan đến việc xã hội là một thể thống nhất, đúng không?

Nó bao gồm rất nhiều hệ thống khác nhau, có thể nói là như vậy. Và chúng ta xử lý rất kém tất cả những hệ thống này. Đa số chúng ta thực sự không nghĩ theo cách hệ thống. Đối với con người, việc suy nghĩ theo cách hệ thống không hề dễ dàng. Và khái niệm về sự lan truyền liên tiếp giúp chúng ta làm điều đó. Vì chúng ta có thể cố gắng cô lập một số yếu tố đó và sau đó chúng ta có thể xác định.

Trong trường hợp này, chúng ta cần tập trung vào điều gì và sau đó có thể là điều gì chúng ta muốn tập trung tiếp theo. Tuy nhiên, hệ thống lớn của các hệ thống đưa chúng ta nhanh chóng vào lý thuyết phức tạp và trở nên rất khó kiểm soát với hầu hết các phương pháp khoa học truyền thống, mà dựa trên việc cô lập mọi thứ đến từng chi tiết nhỏ nhất và sau đó trở thành chuyên gia trong khía cạnh đó.

Tôi nghĩ đây chính là thách thức của mô hình này, là nó đặt ra thách thức sâu rộng đối với khoa học và kỹ thuật, mà truyền thống không thể xử lý loại phức tạp này hoặc chọn cách xử lý bằng cách chia nhỏ nó. Nhưng ở đây, điểm quan trọng là, nếu bạn chia nhỏ nó, bạn sẽ mất cả bức tranh toàn bộ, và đó là điều quan trọng.

Đó là một công cụ rất, rất khó khăn để sử dụng. Nhưng nó liên quan đến rất nhiều điều hơn là những thảm họa và những điều rất dễ nhìn thấy. Nó cũng bao gồm nhiều đặc điểm không thể nhìn thấy được. Và khi chúng ta nói về Trí tuệ Nhân tạo cụ thể, hãy thảo luận về một số chi tiết của Trí tuệ Nhân tạo.

Adel Nehme: Đúng vậy, và hãy bắt đầu từ đó, một trong những rủi ro chính mà bạn bàn luận trong Nghiên cứu Rủi ro Liên tiếp là rủi ro từ Trí tuệ Nhân tạo trở nên không kiểm soát, đó chính là điều mà tôi muốn tập trung vào trong tập phim hôm nay. Bạn biết đấy, tôi nghĩ nhiều người trong ngành công nghiệp, bản thân tôi cũng vậy, đều lạc quan khi nói đến Trí tuệ Nhân tạo.

Nói về bản thân tôi ở đây, tôi không nghĩ mình có sự hiểu biết hay khả năng nắm bắt đủ mạnh mẽ về cách Trí tuệ Nhân tạo có thể trở thành một mối đe dọa tồn tại đối với loài người. Để làm rõ, tôi nghĩ rằng có những vấn đề cấp bách mà chúng ta cần phải khắc phục với Trí tuệ Nhân tạo. Ví dụ như duy trì độ chệch, khuếch đại thông tin sai lệch, sự suy giảm chất lượng của internet khi mọi thứ được tự động tạo ra, hoặc việc các tác nhân xấu lạm dụng AI.

Nhưng tôi gặp khó khăn khi tưởng tượng làm thế nào Trí tuệ Nhân tạo trở nên không kiểm soát trong thực tế. Và tôi nghĩ đến việc sử dụng góc nhìn về rủi ro liên tiếp, khi tôi bắt đầu nghiên cứu, cố gắng hiểu sâu hơn và chuẩn bị cho tập này, thực sự đã mang lại cho tôi một cách tốt để xây dựng tưởng tượng đó. Vậy nên có thể bạn hãy chỉ dẫn chúng tôi qua các kịch bản mà bạn đã suy nghĩ sâu khi nói đến Trí tuệ Nhân tạo không kiểm soát, và bạn nghĩ gì là điều cần phải xảy ra để Trí tuệ Nhân tạo trở thành hiện thực?

Trond Arne Undheim: Chắc chắn. Để tôi nói trước tiên rằng tôi khá hoài nghi về toàn bộ khái niệm về Trí tuệ Nhân tạo không kiểm soát. Tôi xem đó là khá khó để xảy ra, nhưng tôi nghĩ cách duy nhất mà chúng ta có thể hiểu về nó ngày nay là hiện tượng mà trong đó có sự kết hợp giữa các tác động rất thực tế, rõ ràng của con người. Chúng có thể là chính phủ hoặc các phần tử trong chính phủ.

Chúng có thể là những người và nhóm có ý định tốt, đúng đắn, nhưng tất nhiên cũng có những thực thể có ý định xấu, như các nhóm khủng bố, có lẽ là các mạng lưới tội phạm lớn hoặc các nhóm nhà khoa học điên rồ chỉ muốn, hoặc thậm chí là các công ty chỉ muốn đẩy mạnh biên giới và muốn phát triển những thứ, và họ có ý tưởng này, điều mà chúng ta cần thảo luận về sự đổi mới liên quan đến công lý.

Mỗi khi tôi thực hiện một hành động điên rồ, tôi coi đó là sự đổi mới, điều mà chúng ta cần phải tránh. Tuy nhiên, trong tâm trí tôi, dòng sự kiện có thể giải thích về Trí tuệ Nhân tạo trở nên không kiểm soát, có nghĩa là nó ảnh hưởng đến rất nhiều yếu tố khác. Tôi nghĩ, không phải một hệ thống Trí thông minh Nhân tạo nào đó tự quyết định sẽ chiếm lấy thế giới. Tôi nghĩ rằng đó thực sự là một cách quá đơn giản để nhìn vào bất kỳ loại quản trị hoặc thay đổi nào; khi các cuộc cách mạng diễn ra, chúng không phải vì một người đã quyết định điều gì đó sẽ xảy ra.

Đó là sự kết hợp của nhiều yếu tố và vị trí khác nhau. Vì vậy, trong lịch sử của loài người, không có sự thay đổi nào xảy ra chỉ vì một yếu tố nào đó can thiệp, hoặc một đối tượng, hoặc một công nghệ hay một sự kiện đơn lẻ. Đó là sự kết hợp của rất nhiều yếu tố khác nhau. Vậy nên, chúng ta không cần lo ngại chỉ một điều gì đó sẽ xảy ra sai.

Có hàng trăm ngàn điều phải xảy ra sai sót. Trong khoảng thời gian ngắn đó, có lẽ nó sẽ trở thành một kẻ thù kết hợp và trong trường hợp của Trí tuệ Nhân tạo, nó càng trở nên quan trọng khi chúng ta đã tích hợp công nghệ tiên tiến vào các thủ tục chính phủ, trong các nỗ lực và sản phẩm của khu vực tư nhân, những thứ đang trở thành các công nghệ nền tảng.

Chúng rất khó để loại bỏ. chúng tôi thậm chí không đủ khả năng để loại bỏ chúng. Có thể chúng ta thậm chí không thể loại bỏ chúng nếu chúng ta muốn. Nếu chúng ta đồng ý loại bỏ chúng, có thể mất 25 năm và có thể đưa chúng ta trở lại một điểm mà văn minh hoặc tài chính sẽ bị đẩy lùi, gây ra suy thoái và suy giảm kinh tế, hoặc thậm chí là điều tồi tệ hơn.

Vậy nên, tôi nghĩ điều quan trọng ở đây là hãy cẩn thận khi bạn trở nên phụ thuộc vào một điều gì đó, bởi vì có thể bạn sẽ không thể xóa bỏ nó. Điều này thực sự là một cái gọi là ống kính lan truyền. Và, trong tình huống đó, chúng ta nói về một kịch bản được kích thích bởi sự kiện nơi có một nhóm các đối tác hợp tác và sử dụng trí tuệ nhân tạo một cách xấu xa.

Và tôi nghĩ điều đó có thể xảy ra.

Adel Nehme: Giải mã một chút điều bạn đề cập ở đây, rằng bạn cần một trăm yếu tố khác nhau và một trăm quyết định nhỏ, những quyết định nhỏ đó hình thành hướng đi nguy hiểm hơn khi đối mặt với nguy cơ Trí tuệ Nhân tạo tự do trong tương lai. Tôi rất thích cách bạn trình bày điều này trong cuộc trò chuyện ở đây. Bởi vì những gì bạn đề cập, ví dụ như về việc Trí tuệ Nhân tạo trở thành một phần không thể thiếu và quan trọng trong hạ tầng cơ bản.

Khi bạn nói về rủi ro tự do vào năm 2070, phải không? Chúng ta có những quyết định có lý, quyết định mà chúng ta có thể tất cả nghĩ là có lý phải không, những quyết định mà chúng ta có thể đưa ra như là một loài vào những thập kỷ 2030 và 40. Vì vậy, có thể bạn hướng dẫn chúng tôi qua cách bạn nghĩ làm thế nào trí tuệ nhân tạo có thể trở thành một phần của hạ tầng quan trọng và những quyết định có lý đó là gì không?

Những khả năng mà chúng ta có thể muốn tận dụng với trí tuệ nhân tạo mạnh mẽ hơn trong vòng 10 năm tới. Những điều đó có vẻ như có thể dẫn chúng ta đến một vị trí khó khăn hơn trong tương lai.

Trond Arne Undheim: Chà, trước hết, tôi không nghĩ sự phân đôi giữa AI và không có AI này có ý nghĩa gì cả. Đầu tiên, trí tuệ nhân tạo không phải là một điều gì đó duy nhất. Chúng ta chưa thảo luận về cách định nghĩa nó, nhưng bạn biết đấy, AI chỉ là, nó chỉ là một cái tên. Nó chỉ là một thương hiệu tiếp thị cho một loạt các chức năng khác nhau đang liên tục phát triển.

Trong năm nay, đó là một năm tuyệt vời cho mọi người khám phá các tùy chọn trò chuyện. Và đột nhiên, mọi người phát hiện ra các mô hình ngôn ngữ lớn trước đó, đã có trường hợp sử dụng hình ảnh, mọi người hào hứng với việc nhận diện hình ảnh mèo và các thứ khác. Đây là những gì tôi gọi là hiện tượng phụ, chúng thực sự không phải là cốt lõi của những gì đang diễn ra.

Thực tế là, từ nhiều thập kỷ nay, chúng ta đã tích hợp các thuật toán số hóa vào quá trình ra quyết định của chính phủ, hạ tầng và sản phẩm tài chính, trong lĩnh vực giao thông vận tải, thậm chí là trong tiêu dùng, thương mại điện tử và nhiều lĩnh vực khác của cuộc sống. Và đừng quên lĩnh vực sức khỏe, đúng không?

Chúng ta chưa đi xa lắm, nhưng ngày nay tôi nghĩ rằng nó khá rõ ràng. Rằng ứng dụng trong lĩnh vực sức khỏe và đừng quên ứng dụng trong lĩnh vực môi trường, với tất cả các cảm biến, tất cả dữ liệu mà chúng ta có thể thu thập từ môi trường sẽ trở thành quan trọng. Vì vậy, chúng ta đối mặt với rất nhiều thách thức lớn trong thế giới của mình.

Ở đó, chúng ta sẽ phải dựa vào các hệ thống thực sự đơn giản hóa, nhưng có thuật toán tốt hơn, và trí tuệ nhân tạo mang lại cho chúng ta điều đó. Vì vậy, chúng ta không có sự lựa chọn. Chúng ta sẽ sử dụng tất cả những kỹ thuật này, nhưng chúng ta phải giữ tinh thần cảnh báo. Và theo tôi, điều quan trọng nhất là hệ thống quản trị của chúng ta, cả trong lĩnh vực công và tư, cần phải trở nên linh hoạt và phản ứng nhanh chóng hơn nhiều.

Mọi người đều phải chịu trách nhiệm. Nếu bạn là một nhà cung cấp, là một tổ chức chính phủ, nếu bạn ảnh hưởng đến hàng triệu người, đó là một diễn viên quản trị. Bạn đã trở thành một chính phủ thực tế. Bạn phải nghiêm túc đảm nhận trách nhiệm đó.

Adel Nehme: Có điều thú vị khi bạn nói về nhiều quyết định có lý này có thể dẫn chúng ta đến rủi ro lâu dài trong tương lai và tầm quan trọng của quản trị khi chúng ta đưa ra những quyết định này, nghĩ về việc tích hợp hệ thống số, trí tuệ nhân tạo vào hạ tầng quan trọng như: Chăm sóc sức khỏe, giao thông, và cả những lĩnh vực khác.

Bạn nghĩ quản trị tốt cần phải làm như thế nào ngay bây giờ? Hoặc trong vòng 10 năm tới khi chúng ta phát triển khả năng này trong hạ tầng của mình hơn nữa để tránh rủi ro lâu dài.

Trond Arne Undheim: Lý tưởng nhất là quản trị của chúng ta trong trường hợp cụ thể này là một hệ thống toàn cầu. Nhưng khi nhìn vào khả năng thiết lập điều đó và sự kháng cự, cũng như sự hiểu biết và do dự đối với điều gì đó như vậy, một khuôn khổ toàn diện, tôi nghĩ những gì chúng ta đang nghiên cứu là các phương pháp khu vực, nơi các nền kinh tế lớn, trong trường hợp này, tôi nghĩ, điều chúng ta thực sự quan tâm là EU, Hoa Kỳ và Trung Quốc đang thực hiện để quản lý công nghệ của họ và những công nghệ đang được sử dụng đó.

Các lục địa và hệ thống, ba tác nhân này \ phải hành động cùng nhau và thực sự kết hợp với nhau. Họ cần phải cùng nhau đồng thuận một số nguyên tắc, không phải tất cả, tôi chắc chắn sẽ có ba hệ thống quy định khác nhau hoàn toàn, nhưng tôi nghĩ điều đó sẽ phát triển trong thập kỷ tới.

Và điều thực sự quan trọng là phải làm điều đó, tôi đoán, đủ nhanh, 10 năm nữa. Sau đó, bạn có thể có một hệ thống thích ứng có thể thay đổi và linh hoạt theo bất kỳ sự phát triển nào đang hướng tới chúng ta, không chỉ về AI, mà còn về các thách thức rủi ro xếp tầng mà chúng ta sẽ phải đối mặt và có thể kết hợp việc bổ sung nhiều, rất nhiều thứ khác các công nghệ mới nổi đang thực sự hoạt động trên AI.

Ví dụ, trong kịch bản của tôi, công nghệ lượng tử sẽ là yếu tố đẩy mạnh và làm cho một số tình huống trở nên rất đột ngột, nhưng cũng có khả năng rất tích cực, chẳng hạn như lượng tính toán bạn có thể thực hiện qua mạng sẽ thay đổi đáng kể, và điều đó sẽ tạo ra các ứng dụng mới, vì vậy, tôi nghĩ, chúng ta phải tiếp tục sáng tạo và nắm bắt những cơ hội đang hiện ra với chúng ta như một loài người, như những người sáng tạo và như chính phủ và những người tham gia tư nhân, nhưng chúng ta phải có một hệ thống nơi chúng ta cố gắng giữ cho các hệ thống này có thể giải thích được.

Đúng. Vì vậy, trí tuệ nhân tạo có thể giải thích được, các hệ thống có thể giải thích được, và sau đó, thứ hai, là các hệ thống minh bạch và sau đó là có thể xác minh. Minh bạch vì chúng được chuẩn hóa và dễ hiểu và ít nhất là lý thuyết có thể giao tiếp với nhau. Nhưng sau đó, tôi còn một khía cạnh nữa, và đây lại là một chút trái với ý tưởng toàn cầu, nhưng tôi đã viết về điều này trong cuốn sách về công nghệ y tế của mình.

Tôi nghĩ đó thực sự là một thách thức lớn khi đặt tất cả niềm tin vào một nơi. Hiện nay, chúng ta có những hệ thống tiên tiến, và từ một số góc độ, việc chúng ta không có một hệ thống toàn cầu thực sự là tốt. Internet thực sự mang lại một rủi ro. Vì vậy, nếu việc đánh sập một hệ thống có thể làm mất tất cả, may mắn thay, điều đó không đúng với internet.

AI cũng tồn tại rủi ro trong môi trường Internet

AI cũng tồn tại rủi ro trong môi trường Internet

Nhưng có thể các công nghệ khác sẽ dễ dàng bị cô lập. Vì vậy, tôi nghĩ một trong những khía cạnh chúng ta cần xem xét thực sự là có thể làm cho công nghệ cụ thể thành khu vực và cô lập một số điều để chúng ta biết rằng nếu một thảm họa xảy ra ở một phần của mạng lưới, nó sẽ không làm sập toàn bộ hệ thống hoặc cơ sở hạ tầng. 

Vì không phải là có thể làm hủy diệt mỗi điểm, nhưng có thể chỉ là quá đắt để xây dựng lại vì nó chỉ hợp lý nếu nhiều bên đã đầu tư vào nó. Vì vậy, những hệ thống chỉ có ý nghĩa khi về cơ bản mọi người cùng nhau, khi có vấn đề xảy ra trong những hệ thống đó, có thể không đáng để xây dựng lại chúng.

Nếu có một thảm họa lớn. Vì vậy, tôi nghĩ chúng ta cần xây dựng các hệ thống mạnh mẽ hơn, có quy mô ở mức độ phù hợp và có thể được xây dựng lại ở cấp độ khu vực hoặc quốc gia, hoặc thậm chí ở quy mô nhỏ hơn theo một cách phân tán. Và xu hướng tập trung mà chúng ta đang thấy trong nhiều lĩnh vực trí tuệ nhân tạo từ góc độ đó, đối với tôi, là khá đáng sợ.

Bởi vì, các thuật toán có thể linh hoạt và có thể chạy trên các thiết bị nhỏ, nhưng các hệ thống chúng ta đặt chúng và dữ liệu chúng ta để chúng chạy đôi khi lại tập trung. Và tôi nghĩ đó là một mô hình rất đáng sợ nếu chỉ có các hệ thống tập trung. Dù bạn có tiết kiệm và đạt được bao nhiêu đó từ quyền lực dữ liệu của các hệ thống tập trung, tôi nghĩ đó có thể là một rủi ro rất quan trọng.

Adel Nehme: Đúng, tôi hoàn toàn đồng ý với quan điểm này. Dường như có một sự cân bằng tinh tế mà, như một loài người, chúng ta cần tạo ra giữa việc xây dựng một quản trị vững chắc và việc tạo ra một quản trị chống lại sự suy yếu, đồng thời kháu mạnh đối với bất kỳ sự cố nào trong các nút, như bạn đã nói. Và tôi nghĩ những gì bạn đề cập ở đây thật sự liên quan chặt chẽ đến góc nhìn về rủi ro liên tiếp, bởi bạn đặt vấn đề trí tuệ nhân tạo hoặc rủi ro từ trí tuệ nhân tạo trong bối cảnh các rủi ro khác.

Ví dụ, bạn đã đề cập về cách tiến hóa và máy tính lượng tử có thể gia tăng. Rủi ro tự do nếu không được quản lý đúng cách, nhưng bạn cũng đã đề cập, 

  • Ví dụ, về cách sự phụ thuộc ngày càng tăng lên vào hạ tầng kỹ thuật số và thực tế ảo, 
  • Ví dụ, do sự suy giảm của tự nhiên, đó là rủi ro về khí hậu ở đây, hoặc cách cạnh tranh địa chính trị giữa các quốc gia có thể thúc đẩy sự phụ thuộc cao hơn, sử dụng nhiều hơn cũng tạo ra khả năng lớn hơn về việc lạm dụng hoặc sử dụng có hại của trí tuệ nhân tạo.

Hãy chỉ dẫn chúng tôi qua cách chúng ta nên suy nghĩ về sự tương tác giữa những rủi ro này, những xu hướng này một cách sâu sắc hơn khi nghĩ về rủi ro của trí tuệ nhân tạo.

 

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

 

Trond Arne Undheim: Điều đầu tiên là chỉ vì có một sự tương tác không có nghĩa là tương tác đó nhất thiết là tiêu cực, phải không? Vì vậy, tác động liên quan có thể tích cực và tiêu cực. Bạn có thể nghĩ về nó như là những vòng xoắn, nhưng chúng cũng có thể xoắn theo hướng tích cực. Vì vậy, chúng ta, tất nhiên, cần sử dụng sự nhận thức về cách các yếu tố tương tác và hoạt động theo cách hệ thống để có lợi ích cho mình.

Và miễn là chúng ta sử dụng chúng như là những chuỗi tích cực, đúng không, đây là điều mà các nhà nghiên cứu đổi mới và những người kiếm tiền trên thị trường chứng khoán và bất cứ điều gì khác, khi bạn sử dụng hiệu ứng mạng. Điều này thường là tuyệt vời cho tất cả mọi người liên quan vì bạn đang phân phối lợi ích một cách rất, rất hiệu quả.

Vì vậy, tôi nghĩ chúng ta cần phải thiết kế các hệ thống có khả năng thực hiện điều đó và tiếp tục đổi mới các sản phẩm cho phép chúng ta làm những điều này qua các mạng, nhưng đồng thời, hãy rất cẩn trọng vì vì các mạng này rất hiệu quả nếu chúng ta không hiểu đầy đủ cách chúng hoạt động, hoặc nếu có ai đó hiểu rõ quá và bắt đầu tận dụng mà không nói với bất kỳ ai khác, đây thực sự là những điều lớn lắm để chú ý.

Vì vậy, tôi nghĩ chúng ta cần tạo ra nhiều hơn những người canh gác. Một cách không chính thức và chúng ta cần sử dụng cảm biến và các nguyên tắc mở để xây dựng những hệ thống đó. Chúng không đơn giản như việc chỉ làm nó ngoại giao cho một bên thứ ba nào đó giống như một người canh gác. Đây là những điều chúng ta cần tích hợp vào quá trình đổi mới.

Tôi thực sự mong muốn tái khái niệm hóa những gì chúng ta coi là sự đổi mới.Và tôi nghĩ chúng ta cần trở nên có trách nhiệm hơn đối với việc sử dụng cuối cùng và các trường hợp sử dụng cuối cùng tiềm năng của công nghệ của mình. 

Vì vậy, bạn không chỉ hoàn thành phần đổi mới khi chỉ tạo ra một điều tuyệt vời mà mọi người thích và sau đó bạn có thể bán với một giá cao. Bạn thực sự cần tích hợp vào gói đó một phân tích rủi ro về việc này có thể được sử dụng như thế nào, đặc biệt khi nó trở nên phổ biến và có sẵn trên toàn thế giới như một sản phẩm có sẵn toàn cầu. 

Và điều đó hiện tại không được thực hiện một cách có hệ thống, tất nhiên, nếu bạn là một startup, ưu tiên là tạo ra một sản phẩm hoạt động.

Và nếu bạn là một tập đoàn lớn, nếu bạn đủ may mắn để có sự xâm nhập khắp thế giới. Ngay cả khi đó, đôi khi sản phẩm của bạn thất bại. Vì vậy, khi bạn có một cái gì đó có vẻ hoạt động và người ta yêu thích, thì tại sao bạn lại gặp rắc rối? Nhưng tôi nghĩ với tư cách là một xã hội, với tư cách là nhân loại, chúng ta không thể chấp nhận được những sai sót trong công nghệ gây hậu quả như AI.

Hoặc công nghệ lượng tử hoặc thậm chí nhiều công nghệ sinh học tổng hợp mới mà tôi sẽ tích hợp với trí tuệ nhân tạo bởi vì chúng sử dụng trí tuệ nhân tạo cho sức mạnh tính toán của chúng. Nhưng tất nhiên, với những hậu quả rất thực tế, bạn đang tạo ra sự sống nhân tạo thông qua công nghệ mô phỏng tự nhiên. Điều này là một vấn đề rất nghiêm trọng và một số trong những điều đó, khi chúng thực sự được phóng ra vào tự nhiên, bạn không thể hủy bỏ nó.

Đây không chỉ là về AI. Đối với tôi, cái góc nhìn này là chúng ta đang sống trong một xã hội nơi chúng ta, có lẽ lần đầu tiên, bạn biết đấy, trong những 30, 40 năm qua, chúng ta đang có một quyền lực mới đối với sự sống như vậy. Và chúng ta phải sử dụng nó một cách có trách nhiệm vì chúng ta sẽ không có cơ hội thứ hai, tự nhiên có thể tồn tại trong vòng 100,000 năm tới, nhưng điều đó không quan trọng cho con người hiện tại, phải không?

Vì vậy, liệu thiên nhiên có tồn tại trong 100.000 năm tới và tái tạo đa dạng sinh học hay không, nếu chúng ta tự hủy hoại nó trong vòng 2000 năm tới. Tôi tin rằng chúng ta đang gặp rắc rối sâu sắc. Đây chắc chắn không phải là một lựa chọn mà chúng tôi muốn xem xét.

Adel Nehme: Điều này chắc chắn không phải là một lựa chọn mà chúng ta muốn xem xét, và bạn đã đề cập đến cách chúng ta cần phải định lại cái gọi là đổi mới trong một thời đại mà có thể có những rủi ro quan trọng đối với sự đổi mới không kiểm soát. Vậy thì hãy hướng dẫn chúng tôi qua cách bạn muốn định nghĩa đó phát triển theo thời gian và bạn nghĩ sao về điều đó? 

Có thể có những người chơi trong ngành công nghiệp trí thông minh nhân tạo, nếu có, mô hình ít nhất là định nghĩa về đổi mới khi họ triển khai các sản phẩm và dịch vụ trí tuệ nhân tạo.

Trond Arne Undheim: Điều đầu tiên tôi muốn nói, và tôi có một cuốn sách mới có tên là Ecotech, trong đó tôi khám phá một chút về cuộc tranh luận liệu mọi thứ hiện nay có nên trở thành quy mô khổng lồ và nền tảng khổng lồ hay không, hay liệu đổi mới hiện nay cần thu nhỏ lại với những hiệu ứng phân phối nhỏ hơn. Và chúng ta thực sự đang cần một tư duy suy giảm hoàn toàn, có nghĩa là quy mô nhỏ hơn, có thể ít tăng trưởng hơn.

Và tôi nghĩ cái phân chia hai chiều này một cách nào đó là sai lầm vì không phải là đổi mới phải trở nên ít hiệu quả hoặc quy mô nhỏ chính nó. Chỉ là cần thay đổi mục tiêu cốt lõi của nó. Mục tiêu không chỉ là tạo ra các lĩnh vực kinh tế cho các nhóm xã hội nhỏ, cho dù đó là các startup, cá nhân giàu có hoặc các mạng lưới doanh nghiệp.

Chúng ta cần phải nghĩ toàn cảnh rộng lớn hơn. Điều đó không có nghĩa là đổi mới không nên xảy ra. Vì vậy, theo cách tôi nghĩ về đổi mới, tôi nghĩ từ “suy giảm” là một từ có ý nghĩa hữu ích. Tôi không biết liệu bạn có liên quan đến khái niệm đó hay không, ý tưởng này đã xuất hiện trong vài năm qua trong kinh tế môi trường.

Trong đó, họ nghĩ rằng không chỉ quá trình đổi mới cần thay đổi, mà logic toàn bộ cách chúng ta đổi mới cũng cần phải thay đổi. Hiện nay, trong cộng đồng có sự bất đồng. Một số người cho rằng chúng ta cần tiêu thụ ít hơn, đi lại ít hơn, và làm ít hơn, nói chung, ít hơn mọi thứ. Trong cuốn sách của mình, tôi đã xem xét lập luận đó và kết luận rằng nó chắc chắn sẽ thất bại.

Điều này không phải là cách chúng ta hoạt động như con người. Chắc chắn là không phải con người mạnh mẽ, sáng tạo muốn cái góc nhìn đó. Vì vậy, cái góc nhìn đó sẽ không thể thành công. Tôi muốn một mô hình đổi mới mở rộng, một mô hình đổi mới lạc quan, nhưng một nơi mà bạn luôn nghĩ về trường hợp sử dụng cuối cùng và nơi bạn sẵn sàng bảo vệ nó, gần giống như câu nói của tòa án, ngay cả khi kẻ xấu có quyền truy cập vào công nghệ, đây là cách chúng tôi sẽ tiến hành.

Adel Nehme: Và tôi nghĩ điều này kết nối rất tốt với câu hỏi tiếp theo của tôi về tình trạng của trí thông minh nhân tạo mã nguồn mở và những hậu quả tiềm ẩn mà chúng ta thấy trong tương lai sắp tới hoặc trong tương lai ngắn hạn. Tôi nghĩ rằng, đặc biệt là khi bạn đã đề cập trước đó trong cuộc trò chuyện của chúng ta rằng có lẽ là thời điểm không đúng để làm lại chuông báo động về rủi ro tồn tại với việc phát hành các mô hình của Chachapitian và các mô hình ngôn ngữ lớn.

Và tôi hoàn toàn đồng ý với điểm đó. Và nhiều người trong ngành công nghiệp, chúng ta thấy sự phân chia đó ngày nay giữa những người muốn sử dụng mô hình nguồn đóng và các mô hình cơ sở được tập trung trong một số bên thì trở nên về cơ bản là những mô hình ngôn ngữ lớn duy nhất có sẵn mà bạn có thể thấy ngày nay.

Có những người khác như: Andrew Ng, Yann LeCun đang thảo luận về sự cần thiết của việc tăng tốc trí tuệ nhân tạo mã nguồn mở và sự phát triển của trí tuệ nhân tạo. Có lẽ bạn nghĩ thế nào về cuộc tranh luận này, đặc biệt là trong tương lai và những rủi ro đi kèm với nó. Và tôi rất muốn biết quan điểm của bạn về sự đánh đổi giữa trí thông minh nhân tạo mã nguồn mở và trí thông minh nhân tạo nguồn đóng từ góc độ rủi ro.

Trond Arne Undheim: À, có những rủi ro và sau đó là các nghị định. Và, tôi đã làm việc trong lĩnh vực công nghệ lớn và thậm chí, tôi có thể nói là đã làm đại lý quảng cáo một phần của cuộc đời tôi. Vì vậy, tôi hiểu được cảm giác muốn đặt quan điểm của bạn dưới dạng “Tôi đang cố gắng cứu rỗi nhân loại”. Đó là một sức hấp dẫn rất lớn đối với lập luận đó, cho dù bạn ở bên trong, bạn biết đấy, tôi cũng đang làm việc với tư cách là người quản lý.

Có vẻ như mọi người đến với bạn từ khu vực tư nhân với vẻ như muốn cứu thế giới. Điều này rất thuyết phục. Và ở phía khác, cho dù bạn ủng hộ phong cách mã nguồn mở hay bạn đang bán một sản phẩm nguồn đóng nào đó, nếu bạn chọn con đường cao cả bảo rằng “Tôi nghĩ về tất cả mọi người khác”, ban đầu mọi người sẽ lắng nghe, nhưng sau đó chứng minh sẽ nói lên mọi thứ.

Bạn đã nghĩ đến bất kỳ ai khác và mọi người khác không? Và có thể bạn đã đúng. Và có thể những người này chỉ đang chọn thời điểm này. Nhưng điều tôi muốn nói là, bạn không thể la hét và kêu gào nhiều lần. Ít nhất là một người đã kêu gào rồi, bây giờ bạn đã sử dụng quyền của mình. Vì vậy, tôi nghĩ rằng thời điểm đó thật thú vị.

Và tôi nghĩ rằng có những kế hoạch ẩn sau đó. Họ muốn kiểm soát quy trình quy định. Họ muốn quy định. Bây giờ, chứ không phải trong 10 năm tới, bởi vì sản phẩm của họ đang xuất hiện ngay bây giờ. Tôi là người tin tưởng lớn vào sự mở cửa trong công nghệ. Vì vậy, những người đã theo dõi công việc của tôi biết rằng tôi đã làm việc để khuyến khích công nghệ mã nguồn mở và nhất định là công nghệ tương thích trong suốt 20 năm qua.

Cả trong và ngoài chính phủ, cũng như trong các công ty tư nhân và người khởi nghiệp. Vì vậy, tất cả, tất cả, tất cả trên đều không có nghĩa là tôi nghĩ rằng chỉ công nghệ mã nguồn mở mới là giải pháp. Tôi nghĩ có một sự đánh đổi ở đây và những mô hình liên bang hóa nơi bạn chia sẻ một lượng thích hợp mà không tiết lộ danh tính cơ bản của dữ liệu, đó cũng là một giá trị.

Bây giờ, tôi lo lắng về việc các bộ dữ liệu lớn bị mất hoặc trở nên độc quyền của các nhà cung cấp. Đúng, tất nhiên, đó là một vấn đề khổng lồ. Tôi cảm thấy như mỗi thập kỷ chúng ta lo lắng về một điều gì đó. Thập kỷ trước, chúng ta lo lắng về dữ liệu lớn và ai sở hữu tất cả dữ liệu này. Nhưng sau đó, bây giờ tôi nghĩ rằng chúng ta đang sống trong thập kỷ của các thuật toán.

Ai có thuật toán đúng? Bạn có thuật toán, quan trọng gì về dữ liệu? Bạn thậm chí có thể có dữ liệu kém chất lượng vì bạn có thuật toán tốt nhất. Vì vậy, bạn sẽ chiến thắng. Và sau đó, chúng ta bây giờ cũng đang nhận ra rằng cơ sở hạ tầng của chúng ta rất tồi tệ. Chúng ta đang xây dựng tất cả mọi thứ trên nền tảng này.

Chúng ta muốn công nghệ lượng tử vì chúng ta muốn một kiến trúc mới, không phải dựa trên silic, để xây dựng hệ thống của mình, dù NVIDIA đã cho ra đời những vi mạch tốt hơn. Cuối cùng, chúng ta sẽ cần nâng cấp để có được hiệu suất gấp nghìn lần và chúng ta cần các công nghệ khác. Vì vậy, sự mê hoặc với từng phần riêng lẻ của AI hay nền tảng số luôn là một cách tiếp cận sai lầm.

Vì vậy, tôi nghĩ, tôi luôn quan tâm đến sự minh bạch trong dữ liệu. Nhưng tôi cho rằng sự minh bạch trong thuật toán và sự minh bạch trên mọi lĩnh vực đều quan trọng. Và thực tế, đó là cách chúng ta đã tạo ra hệ thống pháp luật của mình, phải không? Để bảo vệ quyền sở hữu trí tuệ. Chúng ta nói rằng các bằng sáng chế và những thứ tương tự, chúng đều cần phải mở cửa. 

Mọi người đều cần hiểu. Điều này không có nghĩa là, bạn biết, đối với các bằng sáng chế, khi chúng có giá trị, đó là một thời kỳ rất lâu trước, chủ yếu ở không gian không số, chúng có ích vì mọi người có thể nhìn thấy điều gì đang diễn ra.

Dĩ nhiên, họ vẫn phải trả tiền cho chủ bằng sáng chế đó. Bây giờ, trong lĩnh vực kỹ thuật số, mọi thứ diễn ra một cách khác biệt. Bằng sáng chế không còn quá hữu ích nữa. Nhưng điều đó không có nghĩa là bạn không thể tuyên bố quyền sở hữu và hưởng lợi từ việc phát triển công nghệ. Vì vậy, tôi nghĩ chúng ta cần phải suy nghĩ lại cách mọi thứ hoạt động.

Chúng ta không thể làm mọi thứ theo một cách trong suốt 30 năm. Chúng ta phải linh hoạt. Chúng ta phải cho phép các mô hình cấp phép khác nhau cho công nghệ. Chúng ta cũng phải nhận thức rằng nếu chúng ta áp dụng mô hình cấp phép “lan truyền” trên toàn cầu, điều này có thể ảnh hưởng đến mối quan hệ giữa các công nghệ mà chúng ta có thể chưa sẵn sàng thực hiện.

Vậy nó không đơn giản như việc áp dụng một loại giấy phép lan truyền cho tất cả công nghệ, phải không? Điều đó ít nhất cũng là điều chúng ta cần phải chuẩn bị. Vì vậy, tôi nghĩ chúng ta cần thoát khỏi không gian hẹp này, nơi mọi thứ bây giờ phải mở hoặc mọi thứ đều nên đóng vì vậy nhà sáng tạo mới có thể sáng tạo.

Cả hai đều không chính xác.

Adel Nehme: Điều thú vị về những gì bạn đề cập ở đây là nguy cơ tiềm ẩn của việc bị chiếm đóng quy định mà bạn đã thảo luận, điều mà tôi nghĩ bạn đã thực sự hiểu rõ ở đây. Hấp dẫn khác về cuộc thảo luận về mã nguồn mở là ảnh hưởng tiềm ẩn của trí tuệ nhân tạo đối với các rủi ro lan truyền khác mà bạn đã thảo luận trong nghiên cứu của mình. 

Và bạn đã đề cập ở đây trong cuộc trò chuyện trước đó rằng không phải tất cả các chuỗi hậu quả đều là tiêu cực, không phải tất cả các tương tác đều là tiêu cực, và theo tôi, theo nhiều cách, chúng ta thấy trí tuệ nhân tạo đang đóng một vai trò quan trọng và có thể làm chậm lại rủi ro tiềm ẩn của các rủi ro lớn khác, phải không? 

  • Ví dụ, những bước tiến trong trí tuệ nhân tạo có thể giúp chúng ta mở khóa các vật liệu mới có thể hoạt động như nguồn năng lượng mới hoặc kích thích sự cải tiến trong lĩnh vực chăm sóc sức khỏe, rẻ hơn và nhanh chóng hơn, đúng không?

Những thay đổi này có xu hướng ảnh hưởng đến cách các quốc gia nghĩ về chiến tranh, ví dụ, phải không? Có một tập hợp toàn bộ các mối quan hệ phức tạp ở đây có thể được giảm nhẹ và cải thiện thông qua trí thông minh nhân tạo (AI). 

Hãy tận dụng AI một cách thông minh

Hãy tận dụng AI một cách thông minh

Vậy có lẽ khi nhìn vào các trường hợp sử dụng tiềm năng của trí tuệ nhân tạo và tác động tích cực trên nhiều rủi ro khác nhau, có thể bạn giải thích thêm về những gì bạn nhìn thấy là con đường tốt nhất để tối ưu hóa một tương lai nơi mà AI đóng một vai trò tích cực trong giảm nhẹ những rủi ro tiềm ẩn có thể kéo dài.

Trond Arne Undheim: Điều đầu tiên tôi nghĩ là nói đơn giản rằng tôi đã nghiên cứu về internet suốt 20, 30 năm, đúng không? Và tôi nghĩ theo một cách tương tự như có rất nhiều người lạc quan nghĩ rằng internet sẽ làm cho mọi thứ trở nên bình đẳng, sẽ không còn người nghèo, sẽ không còn người thiếu thông tin nữa, mọi người sẽ được giáo dục, đúng không?

Mọi thứ sẽ thay đổi. Không công nghệ nào có tiềm năng làm xáo trộn mọi thứ trên thế giới, cho dù đó là về mặt vật lý, tinh thần, hay bất kỳ khía cạnh nào khác. Do đó, giống như internet đã tồn tại và tăng cường cấu trúc quyền lực hiện tại, cũng như mang đến cơ hội mới cho người khác, điều tương tự có thể nói về trí tuệ nhân tạo, dù bạn định nghĩa nó như thế nào.

Nó sẽ dẫn đến những điều tốt, những điều không quá tích cực, và rất nhiều thứ ở giữa. Vì vậy, khi chúng ta nghĩ về tiềm năng của nó, và tôi đồng ý với bạn, tiềm năng lớn nhất của trí tuệ nhân tạo là để theo dõi những rủi ro khác và tăng cường những đổi mới mà chúng ta thực sự cần để thế giới này phát triển. Và lĩnh vực y tế là một ví dụ tuyệt vời.

Quan trắc môi trường là một ví dụ khác vô cùng quan trọng và lớn lao. Đó chỉ là những bước đầu, nhưng tôi không nghĩ chúng ta nên giả định, mong đợi, hoặc thậm chí hy vọng rằng Trí thông minh Nhân tạo trong chính nó là tích cực hoặc tiêu cực. Điều này là trách nhiệm của chúng ta để đảm bảo rằng nó cơ bản là tốt nhất có thể.

Nhưng nó không phải là một lực lượng văn minh tích cực chỉ sẽ dẫn đến những điều tốt đẹp nếu ta làm đúng. Nó sẽ dẫn đến những điều kinh khủng dù ta làm gì. Nhưng điều đó không có nghĩa là chúng ta sẽ ngừng lại. Không ai có quyền lực ngừng lại nó. Vì vậy, hãy ngừng thảo luận về việc dừng một công nghệ.

Điều đó không có nghĩa là chúng ta không thể điều chỉnh, sửa đổi, làm việc với nó, dự đoán nó, xây dựng kịch bản xung quanh nó, và phát triển linh hoạt và chiến lược giảm nhẹ của chính chúng ta. Đó là những gì chúng ta phải làm thông qua các phương pháp Trí thông minh Nhân tạo thử nghiệm, nhưng cũng thông qua các phương pháp không liên quan đến sự chuyên sâu về chuyên gia công nghệ trong lĩnh vực Trí tuệ Nhân tạo.

Vì vậy, những người đang làm việc về an toàn Trí tuệ Nhân tạo hiện nay, đó là công việc đáng khen, nhưng nhiều công việc của họ rất hạn hẹp và chìm đắm vào thuật toán hiện tại. Thuật toán đó sau 3 năm có thể trở nên không quan trọng. Vậy nếu chúng ta không nghĩ về động lực xã hội lớn hơn hoặc ảnh hưởng của quản lý, hoặc xây dựng Liên Hiệp Quốc mới thực sự hiểu về công nghệ, thì chúng ta sẽ làm gì?

Những người đang làm việc về an toàn Trí tuệ Nhân tạo hiện nay, đó là công việc đáng khen, nhưng nhiều công việc của họ rất thiển cận và đi sâu vào thuật toán hiện tại. Thuật toán đó sau 3 năm có thể trở nên không quan trọng. Vậy nếu chúng ta không nghĩ về động lực xã hội lớn hơn hoặc ảnh hưởng của quản lý, hoặc xây dựng Liên Hiệp Quốc mới thực sự hiểu về công nghệ, thì chúng ta sẽ làm gì?

Vậy nên, chúng ta phải thực hiện tất cả những điều trên.

Adel Nehme: Tôi hoàn toàn đồng ý và anh đã đề cập đến một điều ở đây, đó là những ảnh hưởng xã hội và điều mà tôi cảm thấy rất cuốn hút, đặc biệt là trong thập kỷ tới với sự gia tăng của các hệ thống Trí thông minh Nhân tạo mạnh mẽ hơn. 

Một điều mà tôi thường xuyên nghĩ đến là ảnh hưởng tiềm ẩn của Trí tuệ Nhân tạo đối với thị trường lao động vì nếu chúng ta có sự biến động tiềm ẩn trong thị trường lao động, điều đó có thể dẫn đến nhiều ảnh hưởng tiêu cực như: Sự xuất hiện của các nhà lãnh đạo độc tài, khả năng suy thoái kinh tế có thể dẫn đến nhiều sự cạm bẫy giữa các quốc gia và điều này gia tăng thêm căng thẳng địa chính trị.

Vậy có nhiều mối quan hệ khác nhau đang diễn ra ở đây theo góc độ rủi ro lan truyền. Vì vậy, có thể anh nói rõ hơn về cách anh đánh giá ảnh hưởng của Trí tuệ Nhân tạo đối với năng suất, lao động, thị trường lao động và những ảnh hưởng tiêu cực hoặc tích cực tiềm ẩn trong những năm sắp tới?

Trond Arne Undheim: Đúng vậy, tôi nghĩ kiểu đặc điểm phổ biến trước cơn sốt Trí tuệ Nhân tạo mới nhất này là nói hoặc là robot và công nghệ sẽ thay thế tất cả các công việc. Và đúng như vậy, nhưng sau đó lập luận đó phần lớn đã bị bác bỏ. Nó không trông như vậy. Đó là một nghiên cứu lớn của MIT chỉ nói rằng, tất cả robot ở đâu, phải không?

Nó kéo dài hơn thời gian dự kiến. Và robot hiện tại không thể thay thế tất cả các công việc, và có lẽ con người không quan tâm đến việc robot tương lai thay thế một số công việc đó, công việc của họ phức tạp hơn so với vẻ bề ngoài. Bây giờ, mô hình ngôn ngữ lớn lại xuất hiện.

Nó mất nhiều thời gian hơn. Và có lẽ robot hiện đại không thể thay thế tất cả các công việc, có thể con người thậm chí không quan tâm đến việc trong tương lai, robot sẽ thay thế một số công việc đó, và công việc của họ phức tạp hơn so với cái vẻ bề ngoài. Bây giờ, mô hình ngôn ngữ lớn có lẽ đã thay đổi một chút cảm nhận đó. 

Và tôi nghĩ có nhiều công việc hơn mà công nghệ có thể đảm nhận, nhưng chủ yếu, điều này đồng thuận với lập luận trong cuốn sách của chúng tôi, “Augmented Lean,” nơi chúng tôi nghiên cứu về công nghệ sản xuất chính nó vào năm ngoái. Đó là sự kết hợp giữa con người và công nghệ luôn chiến thắng.

Nó rất rõ ràng trong lĩnh vực sản xuất thực tế vì mọi công nghệ nào mà rơi vào lĩnh vực đó ban đầu đều tự động hóa nhiều và sau khi nó tích hợp vào hệ thống, con người tiếp quản các chức năng có giá trị cao hơn và chỉ làm thay đổi cách họ sử dụng công nghệ, sau đó một số công nghệ bị đặt ở kệ hoặc nằm ở phía sau và nó rất đắt đỏ.

Và đó là một thách thức lớn về thời gian và năng lượng. Và nó khó đào tạo cho người lao động và thất bại mặc dù nó rất tiên tiến. Vì vậy, tôi nghĩ sự ám ảnh này xung quanh công nghệ tiên tiến, đắt đỏ nhất có thể. Nó chỉ dẫn đến sự phức tạp không cần thiết. Vì vậy, tôi nghĩ cơ bản là thị trường lao động sẽ phải điều chỉnh.

Và chúng ta có thể chỉ thấy một số khả năng hiện tại mà ảnh hưởng của AR có thể làm rộng hơn, có thể làm tồi tệ hơn đối với một số nhóm công nhân không thích ứng, không học kỹ năng mới. Có lẽ nó sẽ tồi tệ hơn nhiều so với chúng ta nghĩ. Nhưng ngược lại, có những hiệu ứng kéo dài mà con người có khi chúng ta thực sự tiếp quản và quản lý, và trong lĩnh vực của tôi, chúng ta gọi đó là thuần hóa công nghệ.

Chúng tôi biến nó thành của riêng mình, có nghĩa là chúng tôi thực sự chịu trách nhiệm về nó. Sau đó, chúng ta tận dụng nó và trở nên linh hoạt hơn. Tuy nhiên, đây là một hình ảnh rất lạc quan nếu bạn không có học vấn, không có tài nguyên, không thể đến trường, và nếu bạn chỉ là người nhận tất cả những thay đổi này. Nếu bạn đang ở cuối quang phổ đó.

Đó là một thế giới rất thách thức mà chúng ta đang bước vào.

Adel Nehme: Đúng vậy, và sẽ cần có một hình thức phản ứng nào đó. Để giảm thiểu rủi ro đó, đúng không, và tối ưu hóa kết quả tốt hơn. Trong ngữ cảnh bạn đang mô tả, bạn nghĩ rằng phản ứng nào từ các tổ chức chính phủ, ví dụ như khuyến khích việc đào tạo lại kỹ năng và giúp mọi người tìm đường trong thế giới mới này, sẽ là một phản ứng tốt?

Trond Arne Undheim: Tôi nghĩ vai trò của chính phủ trong việc nâng cao kỹ năng và đào tạo lại công nhân và thậm chí là thay đổi hệ thống giáo dục vẫn còn. Tôi nghĩ các công nghệ như AI sẽ có những ảnh hưởng về năng suất rất lớn, nhưng chúng không đồng nghĩa với việc loại bỏ một toàn bộ tầng lớp công dân và công nhân chỉ vì họ trở nên phức tạp hơn.

Và tôi cũng nghĩ rằng, trách nhiệm của chính phủ là đảm bảo rằng ngay cả khi các công nghệ mang lại những kết quả phức tạp và hứng thú, giao diện của chúng là dễ sử dụng. Và tôi nghĩ rằng điều này có thể được yêu cầu. Chúng tôi đã viết về điều đó trong “Augmented Lean,” cuốn sách của chúng tôi về tương lai của sản xuất kỹ thuật số. Đây là một cơ hội mà chính phủ không nên từ bỏ, cơ hội để đưa ra yêu cầu về các công nghệ đơn giản với giao diện mà cả người sử dụng và quản lý công nghệ có thể thích ứng gần như ngay lập tức mà không cần đào tạo, không cần mã.

Điều này thực sự quan trọng. Nếu chúng ta coi đó là một nguyên tắc, thì dù công nghệ cơ bản có phức tạp đến đâu, việc sử dụng sẽ rất đơn giản, không có lý do gì có thể bào chữa. Nếu bạn không tự giáo dục mình, nếu bạn không có tinh thần tích cực, nếu bạn không muốn thay đổi, thì bạn sẽ trở thành người lao động trở nên dư thừa. Tôi nghĩ rằng chúng ta tất cả nên có khả năng tự đặt lại mình vào thị trường lao động. Và tôi không thấy có lý do gì chính phủ không thể đảm bảo điều đó xảy ra, dù là với trí tuệ nhân tạo tiên tiến hay bất kỳ công nghệ nào khác có tác động liên quan.

Adel Nehme: Và khi chúng ta kết thúc với thông điệp lạc quan này, điều bạn hi vọng cho trí tuệ nhân tạo trong tương lai ngắn hạn là gì? Bạn nghĩ có những quy định mạnh mẽ nào chúng ta cần thực hiện để kiềm chế một số rủi ro mà chúng ta đã thảo luận hôm nay không?

Trond Arne Undheim: Tôi vẫn hy vọng có một khuôn khổ pháp lý toàn cầu cho AI. Tôi hy vọng về điều đó. Tôi không nghĩ rằng điều đó là khó khăn và tôi nghĩ chúng ta có thể giải quyết với nó, ngay cả nếu chúng ta có các hệ thống khu vực. Tôi hy vọng và tôi đang thực hiện một số chương trình đào tạo lại cho các quyết định gia chính phủ. Tôi nghĩ với tư cách là một người từng làm người quy định, tôi biết giá trị của việc cố gắng cập nhật, cố gắng rất nhiều để hiểu rõ các công nghệ khi chúng mới xuất hiện.

Và tôi nghĩ rằng hệ thống chính phủ của chúng ta không có chiến lược tốt để thực hiện giáo dục ngay trong công việc như vậy. Nhưng có các hội đồng công nghệ và các hội đồng tư vấn cùng các trường đại học. Chúng tôi vừa có các cán bộ lập pháp của Quốc hội đến Stanford. Chúng tôi đã có ba ngày tuyệt vời với họ và chúng tôi đã học hỏi lẫn nhau.

Những điều này cần trở thành một phần của hệ thống chính trị. Trong trường hợp của chúng tôi, chủ yếu là những cán bộ nhỏ tuổi hơn. Tôi nghĩ, với việc có những người quyết định có kinh nghiệm rất lớn ở các cơ quan quy định trên khắp thế giới mà có thể thuộc độ tuổi khác nhau, những người đó cũng sẽ cần một cách tiếp cận được đặt ra khác biệt để hiểu cách công nghệ phát triển.

Điều này không phải là một việc dễ dàng và không phải lỗi của họ khi họ được giáo dục trong một thời đại khi công nghệ kéo dài 30 năm hoặc hơn. Trong một thời kỳ mà công nghệ có thể chỉ tồn tại trong ba tháng, bạn cần phải điều chỉnh hệ thống giáo dục của mình cho phù hợp. Bạn không thể chỉ quan tâm đến một công nghệ. Bạn phải hiểu tại sao nó được tạo ra và nhận ra rằng nếu bạn đầu tư một năm để hiểu về một điều gì đó, nó có thể biến mất và trở nên không ý nghĩa gì vào tháng tiếp theo.

Vì vậy, bạn cần phải có một cách tiếp cận khác và các cơ quan quản lý cần phải làm điều này. Nhưng tôi nghĩ rằng các quản lý ở mọi cấp độ trong xã hội cũng cần phải có nhận thức đó. Học cách học, không phải chỉ học một điều gì đó.

Adel Nehme: Và tôi hoàn toàn đồng ý. Và khi chúng ta kết thúc tập phim hôm nay, Trond, bạn có thông điệp cuối cùng nào cho người nghe trước khi kết thúc tập phim hôm nay không?

Trond Arne Undheim: Tôi ước tất cả chúng ta có thể hít một hơi thật sâu và nhận ra rằng những gì AI sẽ làm phần lớn là những gì chúng ta sẽ cho phép nó làm, chứ không phải là những gì trí tuệ nhân tạo sẽ làm gì với chúng ta. Và điều này phù hợp với bất kỳ công nghệ mới nổi nào.  Ở đó, không có lực lượng nào được gọi là công nghệ mới nổi đến với chúng ta như thể nó đến từ sao Hỏa.

Nó đến từ con người. Con người tạo ra nó. Chúng ta chịu trách nhiệm về nó. Chúng ta cần phải giải quyết nó. Và đó là một dự án liên tục, nên không có gì phải sợ, nhưng việc không hành động là điều tôi sợ nhất.

Adel Nehme: Điều đó thực sự tuyệt vời. Và điều này chắc chắn đều nằm trong tay chúng ta. Cảm ơn Trond rất nhiều vì đã tham gia chương trình DataFramed.

Trond Arne Undheim: Đó là niềm vinh hạnh của tôi.

AI đã và đang góp phần quan trọng vào cuộc sống hàng ngày của chúng ta.

Trí thông minh nhân tạo (AI) là một thách thức và cơ hội đồng thời. Đối với một tương lai tích cực, chúng ta cần đảm bảo sự kiểm soát và quản lý chặt chẽ về công nghệ này. NativeX đã đề cập đến những khía cạnh quan trọng của AI và nhấn mạnh tầm quan trọng của quản lý và giáo dục để đối mặt với những thách thức trong bài viết này. Hãy chia sẻ ý kiến của bạn và thảo luận thêm về chủ đề này. Bạn có thể để lại ý kiến của mình dưới đây và chia sẻ bài viết để lan tỏa nhận thức về trí thông minh nhân tạo.

NativeX – Học tiếng Anh online toàn diện “4 kỹ năng ngôn ngữ” cho người đi làm.

Với mô hình “Lớp Học Nén” độc quyền:

  • Tăng hơn 20 lần chạm “điểm kiến thức”, giúp hiểu sâu và nhớ lâu hơn gấp 5 lần.
  • Tăng khả năng tiếp thu và tập trung qua các bài học cô đọng 3 – 5 phút.
  • Rút ngắn gần 400 giờ học lý thuyết, tăng hơn 200 giờ thực hành.
  • Hơn 10.000 hoạt động cải thiện 4 kỹ năng ngoại ngữ theo giáo trình chuẩn Quốc tế từ National Geographic Learning và Macmillan Education.

ĐĂNG KÝ NATIVEX

Tác giả: NativeX

Blog học tiếng anh

TRẢI NGHIỆM NGAY LỚP HỌC NÉN NativeX ĐỘC QUYỀN

Hãy cùng trải nghiệm Lớp Học Nén NativeX độc quyền với phương pháp IN DẤU được phát triển dựa trên nguyên lý Tâm lý học ngôn ngữ giúp tiếp thu tiếng Anh tự nhiên và hiệu quả.

HỌC THỬ MIỄN PHÍ NGAY!