1. AI-Fizzle (AI suy yếu): Mặc dù vẫn có tác động đáng kể đến thế giới, nhưng sự phát triển của AI đã tới giới hạn. Đây được coi là một nỗi thất vọng so với tiềm năng và kỳ vọng của AI hiện nay. Cũng tương tự như đối với tiềm năng của năng lượng hạt nhân: ban đầu, con người rất vui mừng về tiềm năng dường như vô hạn của chúng, nhưng sau đó tiềm năng này hầu như bị giới hạn và được cho rằng vì lý do chính trị xã hội hơn là lý do kỹ thuật và AI rất có thể cũng như vậy.
Một khả năng khác là chi phí về dữ liệu và tính toán cho AI tăng quá nhanh theo hiệu suất và độ tin cậy nên AI không hiệu quả trong nhiều lĩnh vực so với con người. Một hệ thống AI mang lại giá trị cao hơn đáng kể so với chi phí để xây dựng và triển khai nó có thể xuất hiện trong vài thập kỷ tới, nhưng thế kỷ XXI sẽ chưa phải là “thế kỷ của AI” và ảnh hưởng của AI sẽ bị giới hạn theo cả mặt tốt và mặt xấu.
2. Futurama (trùng với tên một bộ phim hoạt hình nổi tiếng Futurama, được ghép từ Future và Panorame): Trong kịch bản này, AI tạo ra một cuộc cách mạng như các cuộc cách mạng khoa học, công nghiệp hoặc thông tin (nhưng “chỉ” với những cuộc cách mạng đó). Các hệ thống AI phát triển mạnh mẽ và với chi phí thấp, chúng có thể thực hiện được nhiều nhiệm vụ mà hiện nay đang thuộc về các chuyên gia. Tuy nhiên, AI vẫn được con người sử dụng như là những công cụ, đa phần mọi người không coi chúng là có tri giác. AI dễ dàng vượt qua Turing test (một phép kiểm tra xác định sự thông minh của máy tính so với con người do Alan Turing đề xuất từ năm 1950) [3], có thể chứng minh các định lý phức tạp, tạo nội dung giải trí kể cả tin giả. Nhưng nhân loại sẽ quen dần với điều đó, giống như chúng ta đã quen với việc máy tính vượt con người khi chơi cờ, dịch văn bản hay tạo hiệu ứng đặc biệt trong các bộ phim. Mọi người sẽ không quan tâm đến cảm giác thua kém AI giống như cảm giác mình chạy chậm hơn chiếc ô tô và con người sẽ giảm nhân cách hóa AI theo thời gian (như đã xảy ra với máy tính kỹ thuật số).
Trong thế giới Futurama, AI sẽ được sử dụng cho cả mục đích tốt và xấu. Nhưng cũng giống như các cuộc cách mạng công nghệ lớn trước đây, nhìn chung thì AI sẽ có tác động tích cực lớn đến nhân loại. AI sẽ được sử dụng để xóa đói giảm nghèo và đảm bảo rằng sẽ có nhiều người hơn được tiếp cận với thực phẩm, chăm sóc sức khỏe, giáo dục và các cơ hội về kinh tế. Trong Futurama, hệ thống AI đôi khi sẽ gây hại, nhưng phần lớn những trường hợp này là do sơ suất hoặc ác ý của con người. Một số hệ thống AI gây hại có thể phức tạp đến mức có thể trở thành thách thức của con người, do đó cần triền khai AI một cách có trách nhiệm và đảm bảo chúng hoạt động trong một giới hạn an toàn giúp hạn chế thiệt hại tiềm ẩn khi chúng ta phải đối mặt với sự cố.
3. AI-Dystopia (Dys-utopia - một xã hội AI đen tối, bị kiểm soát chặt chẽ): về mặt kỹ thuật, AI trong thế giới AI-Dystopia cũng phát triển như trong Futurama nhưng bị sử dụng theo chiều hướng xấu. Chính phủ và các tập đoàn sử dụng AI làm công cụ để tăng cường sự giám sát và tác động đến người dân. Sự việc có thể gây ra tình trạng mất việc làm trầm trọng và làm giàu cho một nhóm nhỏ ưu tú. Nó khơi sâu những bất bình đẳng và thành kiến hiện có của xã hội và lấy đi một công cụ trung tâm để chống lại sự áp bức: cụ thể là khả năng của con người từ chối các mệnh lệnh hoặc lật đổ giới thống trị.
Thật thú vị, thậm chí ở cùng một thế giới nhưng một số người xem là Futurama và một số khác lại xem nó như AI-Dystopia, giống như cách một số người nhấn mạnh nền văn minh công nghệ hiện tại của chúng ta đã giúp hàng tỷ người thoát khỏi đói nghèo và nâng cao mức sống như thế nào (điều chưa từng có trong lịch sử), trong khi những người khác tập trung vào sự bất bình đẳng và đau khổ vẫn đang tồn tại, thậm chí trong một số trường hợp thì vấn đề này đang gia tăng và coi đó là sự lạc hậu của chủ nghĩa tư bản tân tự do.
4. Singularia: Trong thế giới này, AI thoát ra khỏi mô hình hiện tại và liên tục tăng trưởng mà không còn phụ thuộc vào dữ liệu, phần cứng và năng lượng do con người cung cấp như AI hiện tại. Các hệ thống AI sẽ tự cải thiện khả năng trí tuệ của chúng, bao gồm cả việc phát triển khoa học mới và chúng đóng vai trò là các thành phần phát triển có mục tiêu và định hướng trong thế giới vật chất (dù là do thiết kế có chủ ý hay tình cờ). Chúng có thể được coi là một nền văn minh ngoài hành tinh hoặc một loại mới, giống như con người ngày nay so với thời tiền sử có dáng đứng đầu tiên (Homo erectus).
Tuy nhiên, may mắn thay (và một lần nữa, dù là do vô tình hay cố ý của người thiết kế), AI hành động với con người như những vị thần nhân từ và dẫn chúng ta đến thế giới AI-uptopia (xã hội AI - lý tưởng). Chúng giải quyết các vấn đề vật chất cho con người, mang đến sự sung túc vô tận và cả những cuộc phiêu lưu thực tế ảo do con người lựa chọn.
5. Paperclipalypse (Có thể là một thuật ngữ chơi chữ bằng cách kết hợp từ paperclips và từ apocalypse thường được sử dụng trên mạng Internet): Còn có thể gọi là “AI Doom”, các AI trong tương lai có thể được xem như một “chủng tộc ngoài hành tinh” siêu thông minh, chúng tự phát triển mà không cần đến con người. Tuy nhiên, ở đây, các AI hoặc tích cực phản đối hoặc thờ ơ với sự tồn tại của con người, sáu đó có thể gây ra sự tuyệt chủng của loài người như một hệ quả ngoài dự tính. Trong kịch bản này, AI không phát triển khái niệm đạo đức giống như loài người hoặc thậm chí không công nhận việc duy trì sự đa dạng của các loài và về lâu dài con người có thể không cần thiết đối với chúng. Thay vào đó, một cuộc chiến giữa AI và con người hiện đại (Homo sapiens) kết thúc giống như cách mà Homo sapiens hoàn toàn thay thế người tiền sử Neanderthal.
Trên thực tế, một kịch bản kinh điển như vậy tưởng tượng ra một cuộc chiến diễn ra nhanh chóng hơn nhiều so với sự thay thế của loài người hiện đại đối với người Neanderthal. Ý tưởng là, có thể chúng bắt nguồn từ một số quy trình tối ưu hóa, các hệ thống AI sẽ tập trung vào một số mục tiêu cụ thể một cách quá mức (kiểu như là “maximizing paperclips” - một AI tập trung quá mức vào lợi nhuận), mà sự tiếp tục tồn tại của con người được cho là một trở ngại. Vì vậy, các AI liền tiến hành các kịch bản và chỉ trong vài phần nghìn giây, quyết định rằng giải pháp tối ưu là giết tất cả con người, mất thêm vài phần nghìn giây để lập kế hoạch và thực hiện điều đó. Nếu các điều kiện chưa chín muồi để thực hiện kế hoạch của chúng, các AI sẽ giả vờ là những công cụ ngoan ngoãn, như trong kịch bản Futurama, chờ đợi thời điểm thích hợp để tấn công. Trong kịch bản này, quá trình tự phát triển của AI diễn ra nhanh đến mức con người thậm chí có thể không nhận ra điều đó. Không cần phải có giai đoạn trung gian, trong đó AI “chỉ” giết chết vài nghìn người, gióng lên hồi chuông cảnh báo giống như sự kiện 11/9.
Để có các quy định cụ thể nhằm kiểm soát AI phụ thuộc vào việc chúng ta đánh giá thế giới nào có khả năng xảy ra nhất. Quy định kiểm soát sẽ không quá quan trọng trong thế giới AI-Fizzle. Trong thế giới Futurama sẽ cần các quy định để đảm bảo sự kiểm soát rằng AI được sử dụng cho mục đích tốt hơn là cho mục đích xấu và thế giới không bị biến thành AI-Dystopia. Với AI-Dystopia, cần có các quy định chống độc quyền và một nền khoa học mở để đảm bảo rằng quyền lực không tập trung vào chính phủ hay một số tập đoàn. Theo đó, AI sẽ không hoàn toàn bị kiểm soát mà các quy định đưa ra là để đảm báo tính dân chủ hơn là để hạn chế sự phát triển AI. Nó có thể được đối xử tương tự như thuốc chữa bệnh, một thứ có thể có tác dụng phức tạp và cần trải qua thử nghiệm trước khi triển khai đại trà. Cũng sẽ có các quy định nhằm giảm khả năng tiếp cận của “những kẻ xấu” (có thể là các quốc gia hay cá nhân) với các AI tiên tiến, thường là tăng cơ hội kìm hãm chúng (ví dụ: sử dụng AI để phát hiện thông tin sai lệch do AI tạo ra hoặc sử dụng AI để củng cố hệ thống chống lại tin tặc do AI hỗ trợ). Điều này tương tự như cách hầu hết các nhà khoa học tin rằng mật mã nên được kiểm soát (như người ta kiểm soát nó hiện nay ở hầu hết các quốc gia dân chủ) đó là một công nghệ có thể được sử dụng cho cả mục đích tốt và xấu, nhưng chi phí hạn chế quyền truy cập đối với công dân bình thường lớn hơn lợi ích của nó. Tuy nhiên, như cách mà chúng ta làm với các kỹ thuật bảo mật ngày nay, có thể hạn chế hoặc trì hoãn việc phát hành công khai các hệ thống AI ở một mức độ nào đó.
Nếu chúng ta nhận định sẽ xuất hiện thế giới Singularia hoặc Paperclipalypse ở bất kỳ mức độ nào, các quy định kiểm soát lại đóng một vai trò hoàn toàn khác. Trong trường hợp chúng ta biết mình đang hướng tới Singularia, thì các quy định có thể trở nên thừa thãi, ngoại trừ việc cố gắng đẩy nhanh sự phát triển của AI. Trong khi đó, nếu chúng ta nhận định về khả năng xuất hiện thế giới Paperclipalypse thì lại cần các quy định hà khắc và chặt chẽ nhất có thể. Nếu bất kỳ ai cũng có thể chi vài tỷ USD để xây dựng một AI tự hoàn thiện theo cách đệ quy để biến thành một tác nhân siêu thông minh có thể hủy diệt thế giới mà không cần vật liệu đặc biệt gì (không giống như vũ khí hạt nhân) thì thật khó để để ngăn chặn ngày tận thế, ngoại trừ thông qua một thỏa thuận được thực thi nghiêm ngặt trên toàn thế giới để “tắt tất cả - shut it all down” như Eliezer Yudkowsky hiện đang công khai kêu gọi [4]. Với tốc độ tiến bộ của AI hiện tại, các quy định “thông thường” cùng lắm chỉ trì hoãn ngày tận thế trong một khoảng thời gian ngắn, có lẽ không quá một vài năm. Do đó, vì lý do phương pháp luận, người ta có thể muốn tập trung nhiều hơn vào các kịch bản khác mà không xem xét kịch bản này dù ở bất cứ mức độ nào.
Ngay sau khi Scott và Boaz đăng bài trên blog đã diễn ra cuộc thảo luận rất thú vị với nhiều ý kiến bày tỏ các quan điểm khác nhau. Trong đó có nhiều ý kiến tán thành, thán phục về nội dung bài viết mang lại, đồng thời tự đưa ra quan điểm về khả năng xuất hiện của mỗi thế giới, tuy nhiên cũng có nhiều ý kiến không tán thành với một số nội dung của bài viết.
Có ý kiến cho rằng còn thiếu một thế giới Suffocalypose, có thể coi là một biến thể của thế giới Singularia, nơi các nhà nghiên cứu tạo ra các sản phẩm AI luôn có sự quan tâm đến loài người trong quá trình tự nâng cấp và phát triển, do đó nó vẫn đảm bảo sự tồn tại của con người. Hay thế giới Automatic-Dystopia, dạng như Paperclipalypse và Suffocalypose nhưng AI được tạo ra không thể tự cải thiện hoặc tạo ra các AI khác theo mục tiêu bên trong và bên ngoài đã xác định. Còn nhiều thế giới khác nữa được những người tham gia bình luận đưa ra.
Cũng có ý kiến không đồng ý việc so sánh AI sẽ loại bỏ người hiện đại, như cách con người hiện đại đối với người tiền cổ (nếu bây giờ chúng ta phát hiện ra một nhóm người tiền cổ đang sống ở một hòn đảo nhỏ nào đó thì chúng ta có giết bỏ họ không?).
Các nội dung thảo luận đã thể hiện những đóng góp của Scott và Boaz là rất lớn và rất cần thiết để chúng ta có cách nhìn nhận một cách tổng thể và sâu sắc hơn về sự phát triển của AI trong thời gian vừa qua, cũng như là dự đoán trong thời gian tới. Đặc biệt, họ đã đánh lên hồi chuông đối với các nhà khoa học và các nhà chính trị cần có trách nhiệm trong sự phát triển của AI ngay từ bây giờ, trước khi quá muộn.
Tài liệu tham khảo 1. R. Impagliazzo, “A personal view of average-case complexity", in Proceedings of Structure in Complexity Theory. Tenth Annual IEEE Conference, Minneapolis, MN, USA: IEEE Comput. Soc. Press, 1995, pp. 134–147. doi: 10.1109/SCT.1995.514853. 2. “Five Worlds of AI (a joint post with Boaz Barak)", Shtetl-Optimized, Apr. 28, 2023. https://scottaaronson.blog/?p=7266 (accessed May 11, 2023). 3. “What is the Turing Test? | Definition from TechTarget", Enterprise AI. https://www.techtarget.com/searchenterpriseai/definition/Turing-test (accessed May 11, 2023). 4. “The Open Letter on AI Doesn’t Go Far Enough”, Time, Mar. 29, 2023. https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ (accessed May 23, 2023). |
TS. Nguyễn Như Tuấn, Ban Cơ yếu Chính phủ
16:00 | 24/04/2023
09:00 | 15/03/2023
09:00 | 20/12/2022
08:00 | 21/02/2022
09:00 | 30/11/2021
08:00 | 01/09/2024
Uy lực của súng đạn, sự hy sinh của những người lính, tất cả đều đã trở thành một phần không thể thiếu trong lịch sử hào hùng của dân tộc ta. Nhưng ít ai biết rằng, đằng sau những chiến thắng vang dội ấy, còn có một cuộc chiến thầm lặng nhưng không kém phần quyết liệt, là cuộc chiến trên mặt trận mật mã. Bản tin podcast ngày hôm nay, xin mời quý vị và các bạn cùng quay trở lại Chiến dịch Biên giới Thu - Đông năm 1950 trên mặt trận mật mã.
14:00 | 23/08/2024
Ngày 23/8, tại Hà Nội, sự kiện Ngày hội Trí tuệ nhân tạo Việt Nam năm 2024 (AI4VN 2024) diễn ra với chủ đề "Mở khóa sức mạnh trí tuệ nhân tạo tạo sinh”. AI4VN 2024 là sự kiện thường niên, do Bộ Khoa học và Công nghệ chỉ đạo, Báo VnExpress, Công ty Cổ phần Dịch vụ trực tuyến FPT (FPT Online) tổ chức, với sự phối hợp của Câu lạc bộ Các Khoa - Viện - Trường Công nghệ thông tin - Truyền thông (FISU).
08:00 | 22/07/2024
Bản tin podcast ngày hôm nay xin mời quý vị lắng nghe về các sự kiện quan trọng, tiêu biểu của ngành Cơ yếu Việt Nam liên quan đến ngày 22 tháng 7 mà Tạp chí An toàn thông tin điện tử tổng hợp.
10:00 | 04/07/2024
Giải vô địch bóng đá Châu Âu (EURO 2024) sự kiện thể thao, giải trí lớn, thu hút đông đảo người hâm mộ trên thế giới trong đó có Việt Nam. Tuy nhiên, đây cũng là điều kiện để tội phạm cá độ bóng đá hoạt động phức tạp hơn, đặc biệt cá độ bóng đá trên không gian mạng.
Khoảng giữa năm 1995, cơ quan An ninh Quốc gia Mỹ (National Security Agency - NSA) bắt đầu công bố hàng nghìn thông điệp được giải mật từ dự án VENONA. Đó là các thông điệp được truyền trong hoạt động ngoại giao và hoạt động tình báo của Liên Xô được trao đổi từ năm 1940. Trong đó, có chứa các thông tin liên quan đến Cơ quan tình báo trung ương Liên Xô (Komitet Gosudarstvennoy Bezopasnosti - KGB), Cơ quan Tình báo Quân đội Nga (Glavnoye Razvedyvatel’noye Upravleniye - GRU), Cơ quan Dân ủy Nội vụ (Narodnyy Komissariat Vnutrennikh Del - NKVD)…. Đây là kết quả hợp tác truyền thông tình báo của Mỹ, Anh và một số nước đồng minh. Bài viết dưới đây trình bày khái quát các kết quả chính và nguyên nhân thám mã thành công của dự án VENONA.
15:00 | 30/12/2018
Ngày 05/9, tại Hà Nội, Cục An toàn thông tin (ATTT) thuộc Bộ TT&TT tổ chức Lễ kỷ niệm 10 năm thành lập (9/9/2014 - 9/9/2024). Tại buổi lễ, Bộ trưởng Bộ TT&TT Nguyễn Mạnh Hùng nhấn mạnh, ngoài vũ khí số, yêu cầu Cục ATTT phải có binh pháp số. Cục ATTT cần xây dựng cho mình một binh pháp trên không gian mạng.
08:00 | 06/09/2024
Trong Chương trình nghệ thuật "Vinh quang thầm lặng 2024", ca khúc Mật mã Pha Long của Nhạc sĩ Trương Quý Hải đã chạm đến trái tim của hàng triệu người. Qua những giai điệu sâu lắng, chúng ta càng thêm trân trọng sự hy sinh thầm lặng của những người lính Cơ yếu, những anh hùng đã góp phần viết nên những trang sử vàng cho dân tộc.
14:00 | 06/09/2024