Trong bài viết gần đây về nguy cơ “sụp đổ mô hình AI” do hiện tượng “dữ liệu cận huyết”, một lập luận được đưa ra rằng AI đang đẩy nhân loại tới khủng hoảng tri thức. Tuy nhiên, vấn đề không phải ở AI.
Viễn cảnh "sự sụp đổ của mô hình AI" đang được mô tả như đại họa ngoại lai do máy móc gây ra. Kỳ thực, tất cả những hiện tượng "méo mó", "dị hợm" hay "dữ liệu cận huyết" được mô tả không phải là lỗi của thuật toán mà luôn tiềm ẩn trong bản chất trần trụi của văn minh nhân loại khi bị tước bỏ lớp vỏ bọc lãng mạn.
"Dữ liệu cận huyết" hay lịch sử tư tưởng của chính chúng ta?
AI không tạo ra sự sụp đổ của tri thức; nó chỉ đang phóng đại và tăng tốc quy trình thoái hóa, vốn đã tồn tại trong cơ chế vận hành của xã hội loài người. Chúng ta đang chứng kiến sự hoảng loạn của một nhân loại ái kỷ khi nhìn vào tấm gương khổng lồ của công nghệ và nhận ra khuôn mặt mình không hoàn toàn thánh thiện hay sáng tạo như mình tưởng, mà luôn hàm chứa một tập hợp lớn các dữ liệu lặp lại vô hồn.
Lo ngại đặt ra là khi AI học từ chính nó, các mô hình học "dữ liệu cận huyết" sẽ tạo ra những "đột biến quái thai".
Nhưng nếu tuân thủ với giả định về một "dữ liệu tri thức đóng" thì lịch sử tư tưởng của nhân loại chính là một quá trình "cận huyết" tri thức kéo dài hàng thiên niên kỷ. Con người, nếu nhìn bề mặt hiện tượng như vậy, hiếm khi tạo ra cái gì hoàn toàn mới. Chúng ta học ngôn ngữ từ cha mẹ, học tư duy từ nhà trường, học văn hóa từ cộng đồng - tất cả đều là những dữ liệu đã tồn tại, được nhai đi nhai lại, tái cấu trúc và lặp lại dưới những hình thức khác nhau.
Tranh của M. C. Escher. Nguồn: Wiki commons.
Phần lớn cái gọi là "sáng tạo" của con người là sự xào xáo lại các ý niệm cũ bằng những chất liệu khác. Khi một nhà văn viết một cuốn tiểu thuyết, họ đang sử dụng từ vựng đã có, cấu trúc câu đã định hình và những mô típ cốt truyện đã được khai phá từ ngàn xưa. Đó chính là sự hồi quy (recursion).
Vậy tại sao khi AI thực hiện quy trình này với tốc độ chóng mặt, chúng ta lại gọi đó là "vấn đề"? Phải chăng con người đã quên rằng vốn dĩ tư duy con người cũng chỉ là một thuật toán thống kê chạy trên nền tảng sinh học.
Khi AI tạo ra những văn bản "vô nghĩa" sau nhiều vòng lặp, nó đang mô phỏng chính xác cái cách mà tin đồn, định kiến và sự hiểu lầm lan truyền trong xã hội loài người: tam sao thất bản, sai lệch và cuối cùng trở thành những tín điều rỗng tuếch.
AI không tạo ra sự sụp đổ của tri thức mà chỉ phóng đại và tăng tốc quy trình thoái hóa, vốn đã tồn tại trong xã hội loài người.
Nguyễn Chiến Trường
Ô nhiễm dữ liệu
Bên cạnh đó, sự "ô nhiễm dữ liệu" và cái gọi là sự khan hiếm của "dữ liệu chất lượng cao do con người tạo ra" được dùng để than khóc cho một thời đại vàng son nơi Internet tràn ngập tri thức tinh hoa và sự đa dạng sâu sắc. Đây là một sự lãng mạn hóa quá khứ.
Thực ra, trước khi có ChatGPT, Internet đã là một bãi rác khổng lồ của thông tin nhiễu loạn, của những cuộc tranh cãi vô bổ, của thuyết âm mưu và nội dung rác. Phần lớn nội dung trên Internet vẫn là dữ liệu rác (junk data). Khi nói rằng dữ liệu cận huyết - AI học từ AI sẽ dẫn đến kết quả méo mó, lập luận này đã bỏ qua nguyên lý "GIGO" (Garbage In, Garbage Out) kinh điển trong khoa học máy tính.
Lo ngại rằng AI sẽ làm "cùn mòn" khả năng tư duy của con người, nhưng thực ra sự thoái hóa nhân vị vốn luôn tồn tại từ trước lúc AI xuất hiện, khi con người chấp nhận tiêu thụ những nội dung ăn liền, từ khi chúng ta từ bỏ những suy tư để đổi lấy sự giải trí rẻ tiền. AI chỉ đơn giản là đáp ứng "cơn khát" sự tiện lợi và hời hợt đó một cách hiệu quả nhất.
Nó là một nhà cung cấp dịch vụ hoàn hảo cho một thị trường tri thức đã suy thoái. Chính con người đã làm ô nhiễm không gian số bằng sự tầm thường của mình, và bây giờ chúng ta hoảng sợ khi AI học được sự tầm thường đó quá nhanh và trả lại cho chúng ta một tấm gương phản chiếu méo mó nhưng tiếc thay, lại trung thực.
‘Cái trung bình’ mà AI hướng tới chính là hiện thân của nền dân chủ đại chúng trong tri thức, nơi ý kiến số đông luôn thắng thế.
Nguyễn Chiến Trường
"Cái trung bình" và cấu trúc quyền lực
Vốn dĩ các xã hội hậu hiện đại trên thế giới là cuộc chơi của các cấu trúc quyền lực, nơi chân lý đám đông dễ thuộc về kẻ mạnh hoặc kẻ nắm giữ phương tiện truyền thông. "Cái trung bình" (the average) mà AI hướng tới chính là hiện thân của nền dân chủ đại chúng trong tri thức, nơi ý kiến của số đông – dù ngu dốt hay sai lệch – luôn thắng thế.
Khi AI xóa bỏ "cái dị biệt" để chọn "cái trung bình", nó đang thực hiện đúng nguyên tắc vận hành của xã hội loài người: xu hướng bài trừ sự khác biệt và tìm kiếm sự đồng thuận an toàn. Nỗi sợ hãi về việc mất đi "những kẽ hở" cho sự sáng tạo nảy sinh là có cơ sở, nhưng sai đối tượng
Sự sáng tạo không chết vì AI, sự sáng tạo chết vì con người đã từ bỏ nỗ lực tư duy phản biện để đổi lấy sự tiện nghi. Khi chúng ta hài lòng với những câu trả lời có sẵn, chúng ta đã tự nguyện chui vào cái lồng sắt của "vòng lặp kín". Tại sao lại đổ lỗi cho AI thay vì chỉ ra những người đã tự khóa mình vào đó.
Phong kiến dữ liệu
Cuối cùng, viễn cảnh về một "chế độ phong kiến dữ liệu" - nơi giới tinh hoa dùng tri thức thật còn đám đông dùng "rác AI" - không phải là một lời tiên tri về tương lai, mà là một mô tả về hiện tại và quá khứ.
Sự phân tầng tri thức đã luôn tồn tại kể từ khi chữ viết ra đời. Luôn có một tầng lớp tinh hoa tiếp cận được với giáo dục khai phóng, sách vở kinh điển và những cuộc đối thoại chất lượng cao, trong khi đại chúng dễ bị chi phối bởi sự mê tín và văn hóa phẩm rẻ tiền. Việc AI tạo ra "AI Slop" (rác AI) cho người nghèo chỉ là sự thay thế cho báo lá cải hay truyền hình thực tế nhảm nhí của xã hội. Nguy cơ bất bình đẳng này luôn tiềm ẩn trong bản chất của cấu trúc xã hội loài người, không phải là lỗi của công nghệ. Việc đổ lỗi cho AI gây ra sự phân hóa này là một thủ thuật đánh tráo khái niệm, nhằm lảng tránh trách nhiệm giải quyết các vấn đề gốc rễ về kinh tế và giáo dục. AI chỉ làm lộ rõ hơn ranh giới hào sâu ngăn cách mà con người đã đào sẵn.
Những "bù nhìn rơm" - từ sự sụp đổ mô hình đến chế độ phong kiến dữ liệu – thực chất chỉ là những tấm bình phong để che giấu nỗi sợ hãi lớn nhất: nỗi sợ rằng con người, về bản chất, không đặc biệt như chúng ta vẫn tự tôn vinh.
Sự "sụp đổ" chính là đến từ việc con người dần từ bỏ vị thế chủ thể (subjectivity) để trở thành những khách thể tiêu thụ thụ động (như Marx tiên đoán). Nếu chúng ta muốn cứu vãn tri thức, đừng kêu gọi kiểm soát AI, hãy kêu gọi sự phục hưng của tư duy phản biện và trách nhiệm nhân vị nơi mỗi con người. AI lúc này, chẳng qua là những ngôn sứ cho vấn đề của nhân loại. Đừng giết chỉ vì hắn mang đến bức thư cảnh báo nguy cơ thoái trào của bản thân chúng ta.
Bài viết của tác giả Nguyễn Chiến Trường là một trong số các bài viết Tia Sáng nhận được để thảo luận với quan điểm của tác giả Lang Minh trong bài "Từ 'dữ liệu cận huyết' tới sự sụp đổ của mô hình AI" và các vấn đề khác được đưa ra thảo luận ở mục Diễn đàn. Chủ đề "con người đối diện với AI" được đặc biệt quan tâm vì chúng ta đang ở trong thời kỳ bản lề của lịch sử, khi một công cụ hoàn toàn mới có tác động sâu rộng tới toàn xã hội. Mỗi người, từ góc độ chuyên môn của mình, đều có góc nhìn giúp mở mang thêm vấn đề.
Ngoài các chủ đề này, trân trọng mời các nhà khoa học, nhà văn hóa, bạn đọc yêu khoa học thảo luận về các vấn đề kinh tế - xã hội khác.
Cảm ơn các bạn đã có mặt trên hành trình khám phá tri thức cùng Tia Sáng!
Ở kỳ này, bài viết sẽ phân tích những vấn đề đạo đức của AI trong một tương lai xa hơn, nhưng không kém phần đáng sợ và nghiêm trọng.
Tự động hóa số nhân bản rất dễ và rất rẻ nên sự thay đổi trên thị trường lao động sẽ khốc liệt hơn cả trước đây.
6. Tự động hóa và nghề nghiệp
Trước đây, sự tự động hóa thay thế cơ bắp của con người, nhưng ngày nay tự động hóa số sẽ thay thế tư duy và việc xử lý thông tin của con người. Khác với máy móc, tự động hóa số nhân bản rất dễ và rất rẻ và điều đó có thể đồng nghĩa với việc sự thay đổi trên thị trường lao động sẽ khốc liệt hơn cả trước đây. Vậy nên, những câu hỏi chính sẽ là: Ảnh hưởng bây giờ có gì khác? Liệu sự ra đời của những nghề nghiệp mới và sự thịnh vượng mới liệu có đuổi kịp sự biến mất của những nghề nghiệp cũ? Và kể cả khi ảnh hưởng không có gì khác với trước đây, chi phí chuyển đổi là bao nhiêu và ai sẽ chi trả cho nó? Liệu chúng ta có cần điều chỉnh để có một sự phân phối công bằng về chi phí và lợi ích của tự động hóa số?
Về nguyên tắc, giới nghiên cứu đã nắm rõ ảnh hưởng của tự động hóa lên thị trường lao động diễn ra theo hai hướng: (1) Cách tương tác giữa các nhóm người lao động với kĩ năng khác nhau và công nghệ mới, tác động tới nhu cầu lao động (2) Hiệu ứng cân bằng của sự phát triển công nghệ thông qua một chuỗi những thay đổi trong nguồn cung lao động và thị trường sản phẩm.
Người ta nhìn thấy điều sẽ xảy ra trong thị trường lao động do tác động của AI và tự động hóa robot là "sự phân cực công việc": những công việc kĩ thuật trình độ cao sẽ được nhà tuyển dụng khao khát và được trả lương cao, những công việc dịch vụ kĩ năng thấp cũng sẽ được nhà tuyển dụng rất cần nhưng lại được trả lương rất thấp, nhưng những công việc đòi hỏi bằng cấp trung bình ở trong những nhà máy và văn phòng – tức là đại đa số những công việc hiện nay – đang trong trạng thái chấp chới bị xóa sổ vì nó là những việc dễ đoán và có khả năng bị tự động hóa cao nhất.
Nền kinh tế AI khả năng sẽ không phân chia của cải công bằng vì, thứ nhất, nó vận hành trong một môi trường về cơ bản là không chịu sự kiểm soát và rất khó quy trách nhiệm; thứ hai, nó hoạt động trong những thị trường có đặc tính "kẻ thắng sẽ chiếm tất"; thứ ba, "nền kinh tế mới" của các nền công nghiệp dịch vụ số này dựa trên tài sản phi vật thể, hay còn được gọi là "chủ nghĩa tư bản không cần tiền".
AI và tự động hóa, không có nghi ngờ gì, sẽ đem đến sự tăng trưởng năng suất đáng kể và tổng tài sản trên toàn cầu vì thế sẽ tăng. Nhà kinh tế học Keynes đã dự báo rằng ở khoảng năm 2030, tốc độ tăng trưởng năng suất toàn cầu sẽ là 1% mỗi năm và loài người sẽ tiến đến "thời đại xả hơi". Thực ra, chúng ta đã đạt đến mức độ mà Keynes dự đoán vào năm 2030, nhưng chúng ta vẫn chưa được "xả hơi" mà vẫn đang làm việc – vẫn tiếp tục tiêu thụ và sáng tạo, và đặc biệt còn nhiều hơn ở cấp tổ chức. Harari đã giải thích rằng sự phát triển kinh tế này cho phép nhân loại vượt qua đói kém, dịch bệnh và chiến tranh – và giờ chúng ta dùng AI để hướng tới sự bất tử và hạnh phúc vĩnh hằng.
Tuy nhiên chúng ta có đạt được điều đó không? Vấn đề của thất nghiệp là vấn đề của cải trong xã hội được phân chia công bằng như thế nào. Lí tưởng ra thì nó phải được phân chia dưới một bức "rèm mù", nghĩa là bất kì ai, không phân biệt vị trí xã hội nào, cũng phải được hưởng sự tự do và phúc lợi cơ bản để có thể sống hạnh phúc nhất. Tuy nhiên, nền kinh tế AI khả năng sẽ không làm được điều đó vì ba đặc điểm sau: Thứ nhất, nó vận hành trong một môi trường về cơ bản là không chịu sự kiểm soát và rất khó quy trách nhiệm về một ai. Thứ hai, nó hoạt động trong những thị trường có đặc tính "kẻ thắng sẽ chiếm tất" – nơi dung dưỡng cho sự độc quyền nảy nở nhanh chóng. Thứ ba, "nền kinh tế mới" của các nền công nghiệp dịch vụ số này dựa trên tài sản phi vật thể, hay còn được gọi là "chủ nghĩa tư bản không cần tiền". Điều đó nghĩa là rất khó để có thể kiểm soát những tập đoàn công nghệ số đa quốc gia không hề dựa vào một nhà máy hay địa điểm cụ thể nào. Ba đặc điểm trên cảnh bảo ta rằng, nếu ta dựa hoàn toàn vào bàn tay thị trường tự do để phân chia của cải trong xã hội, kết quả sẽ cực kì bất công: và đó thực ra là thứ chúng ta đã chứng kiến rồi.
Một trong những câu hỏi thú vị nhưng chưa được nhiều người chú ý đó là liệu sự phát triển AI có thực sự bền vững về môi trường hay không: Như bất kì hệ thống tính toán nào, hệ thống AI tạo ra những rác thải rất khó tái chế và nó tiêu thụ một lượng điện năng khủng khiếp, đặc biệt là để huấn luyện các hệ thống học máy (và còn cả để "đào" tiền mã hóa nữa). Và dường như, xã hội nói chung đang phải gánh vác một phần chi phí này.
Năm 1942, nhà văn Issac Asimov đã nêu về ý tưởng đạo đức của máy tính.
7. Các hệ thống tự hành
Thế nào là một hệ thống tự hành vẫn là câu hỏi nhiều tranh cãi. Một quan điểm được nhiều người ủng hộ liên quan đến tranh luận triết học cho rằng sự tự chủ có thể là nền tảng cho việc chịu trách nhiệm và việc làm người. Theo đó, một vật thể có trách nhiệm thì tức là nó có khả năng tự chủ nhưng không có chiều ngược lại. Vì vậy, nguy hiểm thay, sẽ có những hệ thống được trao một mức độ tự chủ công nghệ mà không phải lo nghĩ về vấn đề trách nhiệm. Một quan điểm khác ít được ủng hộ hơn và kĩ thuật hơn, cho rằng tự chủ ở robot mang tính tương đối và sẽ hình thành chậm chạp: Một hệ thống được cho là tự chủ sẽ phải tôn trọng sự điều khiển của con người ở một mức nào đó. Đây là vấn đề tồn tại song song với sự thiên kiến và mơ hồ của AI vì tự chủ cũng liên quan đến mối quan hệ quyền lực: Ai sẽ kiểm soát hệ thống? Ai sẽ chịu trách nhiệm?
Trường hợp về phương tiện tự lái
Người ta hứa hẹn xe tự lái sẽ giảm thiểu đáng kể những thiệt hại mà con người gây ra khi lái xe hiện nay – 1/1 triệu người tử vong vì tai nạn xe cộ, và con số đó lớn hơn nhiều nếu tính những người bị thương, môi trường ô nhiễm, mặt đất tràn ngập bê tông và nhựa đường, xe đỗ chật như nêm trong thành phố... Viễn cảnh thì tươi đẹp nhưng khi những tình huống khó xử trên đường xuất hiện, các phương tiện tự lái này sẽ hành động thế nào, các rủi ro và trách nhiệm sẽ được phân chia ra sao trong hệ thống vô cùng phức tạp mà nó đang vận hành?
Khi xảy ra sự cố do xe tự lái, trách nhiệm thuộc về ai? Luật pháp các nước EU cho rằng nếu trước đây trách nhiệm thuộc về chỉ người lái, thì giờ còn phải chia cho cả nhà sản xuất lẫn người vận hành hệ thống công nghệ...
Khi nhắc đến xe tự hành, người ta nói nhiều đến một tình huống gọi là "vấn đề xe đẩy". Tình huống kinh điển này chứa rất nhiều mâu thuẫn và nghịch lí. Một phiên bản đơn giản nhất của tình huống này đó là có một xe đẩy trên đường ray đang lao đến và có khả năng đâm chết năm người, trừ phi nó được điều hướng sang một ray khác nhưng lại có một người đang đứng trên đó – cũng sẽ chết nếu chiếc xe đẩy đi vào con đường này. Tình huống này không có mục tiêu đặt ra một vấn đề đạo đức hay chứa đựng một đáp án đúng nào cả. Nó chỉ là một thử nghiệm tư duy, đặt con người ta vào tình thế hiểu rất rõ hệ quả của các lựa chọn, lựa chọn nào cũng khó khăn nhưng không thể không chọn. Nó là một công cụ lý thuyết để xem xét sự khác biệt giữa việc cố tình làm và đành phải làm, giữa hệ quả dự tính và hệ quả đành phải chấp nhận, giữa cách tiếp cận thông thường và cách tiếp cận khi biết trước nguyên nhân-kết quả. Tuy "vấn đề xe đẩy" được nhắc đến nhiều nhưng chưa ai có khả năng đề ra một cách tiếp cận mới hoặc kỹ thuật mới trong việc lập trình cho AI đối mặt với những mâu thuẫn tương tự.
Các vấn đề đạo đức khác trong việc lái xe như phóng nhanh, vượt ẩu, không giữ khoảng cách giữa các xe... lại là sự xung đột giữa việc theo đuổi lợi ích của cá nhân và lợi ích chung của mọi người. Tất cả những điều này đều được quy định trong luật đường bộ. Hiện nay người ta vẫn ưu tiên lập trình chiếc xe tuân thủ luật tuyệt đối hơn là "phục tùng lợi ích của người lái" hay "đạt hiệu quả di chuyển tối đa". Nhưng có phải lúc nào tuân theo luật cũng là điều nên làm? Sẽ cần có những điều kiện nhất định đòi hỏi chiếc xe phải "phá luật". Nhưng đây là vấn đề của luật đường bộ nói chung, khi nào châm chước hiệu quả và lợi ích của người lái lên trên luật đường bộ, chứ không chỉ đơn thuần là việc lập trình AI như thế nào.
Viễn cảnh về xe tự lái thì tươi đẹp nhưng nhiều vấn đề xuất hiện.
Một vấn đề nữa là khi xảy ra sự cố, trách nhiệm thuộc về ai? Luật pháp các nước EU cho rằng nếu như trước đây trách nhiệm thuộc về chỉ người lái, thì giờ đây nó còn phải chia cho cả nhà sản xuất lẫn người vận hành hệ thống công nghệ... Tuy nhiên luật pháp một số nước khác, như Mỹ thì kém chặt chẽ hơn, chưa quy định trách nhiệm thuộc về ai nên những người chủ các phương tiện tự hành cũng như những nạn nhân tiềm năng của nó đều là "chuột bạch".
Trường hợp vũ khí tự hành
Bộ Quốc Phòng Mỹ cách đây gần 40 năm đã hình dung ra một viễn cảnh mà thay vì họ gửi ra thực địa những tên lửa đã được định hướng sẵn và những phương tiện điều khiển từ xa, giờ họ có thể tung ra những phương tiện hoàn toàn tự hành trên đất, biển, không trung, có khả năng thực hiện một loạt các nhiệm vụ trinh sát và tấn công.
Viễn cảnh đó từng bị cho là nực cười nhưng giờ thì nó đã thành sự thật một phần nào đó. Luận điểm chống lại hệ thống vũ khí tự hành hiện nay đó là nó thúc đẩy việc giết người ngoài vòng pháp luật, miễn trừ con người khỏi trách nhiệm, và vì thế tạo điều kiện nảy sinh chiến tranh và chết chóc nhiều hơn.
Một câu hỏi khác đặt ra đó là việc sử dụng vũ khí tự hành trong chiến tranh khiến cuộc chiến đó khốc liệt hơn hay đỡ tệ đi? Có người nhìn về mặt tích cực cho rằng sẽ ít tội phạm chiến tranh và tội phạm trong chiến tranh. Nhưng điều đó không có nghĩa rằng máy móc thì không giết người. Vũ khí tự hành thì cũng vẫn là vũ khí, đó còn chưa kể dù được lập trình chính xác đến đâu, nó vẫn có khả năng mắc những sai lầm mà con người không lường trước được. Đó còn chưa kể, các vũ khí này không chỉ được dùng trong chiến tranh thông thường mà trong cả những xung đột vũ trang của các thế lực phi chính phủ, bao gồm cả tội phạm.
Bước ngoặt của những sự kiện sau khi siêu trí tuệ AI ra đời là "điểm kì dị" mà từ điểm đó, sự phát triển của AI nằm ngoài khả năng kiểm soát của con người và rất khó dự đoán được nữa.
Người ta cũng cho rằng các vũ khí tự hành không thể tuân thủ Luật Nhân đạo quốc tế, vốn đòi hỏi sự tuân thủ nguyên tắc phân biệt giữa lực lượng vũ trang và dân thường, sự chênh lệch về mặt lực lượng và vũ trang trong một xung đột quân sự, vốn không phải lúc nào cũng khả thi đối với máy móc.
Đã có nhiều thảo luận liên quan đến việc làm sao để giữ việc sử dụng các vũ khí tự hành này một cách "có ý nghĩa". Cũng có những tranh cãi về những khó khăn trong việc xác định trách nhiệm khi các vũ khí này giết người và người ta cũng phát hiện ra nhiều "lỗ hổng trách nhiệm" – những tình huống mà cả người và máy móc đều thoát khỏi trách nhiệm. Nhưng mặt khác, chúng ta phải chấp nhận rằng, có thể không phải sự kiện nào xảy ra cũng có một người phải chịu trách nhiệm. Vấn đề thực sự ở đây là sự phân chia rủi ro giữa các đối tượng liên quan như thế nào. Nhiều phân tích rủi ro chỉ ra rằng, điều quan trọng là phải xác định được ai là người có khả năng chịu rủi ro, ai là người hưởng lợi từ đó và ai là người ra quyết định.
8. Đạo đức của máy
Đạo đức của máy lấy máy làm chủ thể chứ không phải là con người sử dụng chiếc máy đó. Tạo ra một chiếc máy có đạo đức, nhiều người giải thích rằng, đó là "đảm bảo rằng các hành vi của chiếc máy đó với người sử dụng và cả những máy móc khác là chấp nhận được về mặt đạo đức". Có người đưa ra định nghĩa một cách tham vọng và lý tưởng hơn, cho rằng một AI có đạo đức là một AI có khả năng "cân nhắc các giá trị xã hội, các quan ngại về mặt đạo đức; cân đong giữa các ưu tiên về giá trị giữa những đối tượng khác nhau trong muôn vàn tình huống văn hóa; giải thích được quyết định của mình và đảm bảo sự minh bạch".
Tuy nhiên, người ta cũng quan sát thấy rằng các robot được lập trình để tuân thủ những nguyên tắc đạo đức thì cũng rất dễ bị điều chỉnh để tuân thủ những nguyên tắc phi đạo đức.
Ý tưởng về đạo đức của máy tính có thể được viết dưới dạng luật đã quá nổi tiếng trong tác phẩm của Issac Asimov vào năm 1942: Luật đầu tiên – một robot không được làm con người bị thương, hoặc thấy con người gặp nguy hiểm mà lại làm ngơ. Luật Thứ hai – một robot phải nghe lệnh của con người ngoại trừ những lệnh đó trái với Luật đầu tiên. Luật Thứ ba – một robot phải bảo vệ sự tồn tại của chính mình miễn là sự bảo vệ đó không xung đột với luật Thứ nhất và Thứ hai.
Tuy nhiên chính Asimov cũng đưa ra một loạt câu chuyện về ba điều luật này có thể xung khắc với nhau như thế nào và áp dụng chúng cũng "rất có vấn đề" trong một tổ chức có sự phân chia quyền lực từ thấp – cao.
Vẫn chưa có một thống nhất nào về "đạo đức của máy" vì giờ đây người ta chỉ cần máy tính "đủ dùng" là được. Những quan niệm về việc trao cho máy móc một chủ thể đạo đức vẫn là một tờ giấy trắng.
9. Chủ thể đạo đức nhân tạo
Khi máy tính không chỉ được lập trình để hành động theo những nguyên tắc đạo đức mà còn nhiều hơn thế, nó được gọi là "chủ thể đạo đức nhân tạo", tức là nó có cả quyền và nghĩa vụ.
Nghĩa vụ của robot:
Hầu hết mọi người đều đồng tình rằng, trách nhiệm giải trình, trách nhiệm pháp lý và tinh thần thượng tôn pháp luật là những yêu cầu cơ bản phải tuân thủ khi tạo ra một công nghệ mới, nhưng vấn đề trong trường hợp của robot đó là những tiêu chí này được thực hiện như thế nào và có thể xác định trách nhiệm ra sao. Khi một robot hoạt động, nó có phải chịu trách nhiệm, chịu phán xét của pháp luật và phải giải trình hành động của nó hay không? Hay thậm chí người ta phải nghĩ đến sự phân chia rủi ro trước cả khi thảo luận về trách nhiệm nói chung?
Không nên hiểu nghĩa vụ của robot là vấn đề cụ thể của AI mà là vấn đề của cả hệ thống quyền lực kiểm soát và tạo ra nó.
Việc phân chia rủi ro trong thế giới truyền thống người ta đã làm từ lâu: người sản xuất ra chiếc xe hơi phải chịu trách nhiệm về an toàn kỹ thuật của nó, một người lái xe phải có trách nhiệm lái sao cho đúng, người thợ sửa chữa phải chịu trách nhiệm bảo dưỡng tận tâm, chính quyền phải chịu trách nhiệm về điều kiện đường sá...
Về cơ bản, ảnh hưởng của các quyết định và hành động dựa trên AI thường là kết quả của vô số những tương tác giữa rất nhiều bên: từ người thiết kế, người lập trình, người sử dụng, người làm phần mềm, phần cứng... Sự phân công công việc như vậy đi kèm với sự phân chia trách nhiệm.
Bởi vậy, nghĩa vụ của robot này không nên hiểu là vấn đề cụ thể của AI mà là vấn đề của cả hệ thống quyền lực kiểm soát và tạo ra nó.
Quyền của robot
Một vài người cho rằng cần phải cân nhắc một cách nghiêm túc xem liệu các robot hiện nay có nên được trao quyền hay không. Nhưng phần lớn còn lại đều trả lời là không. Người ta cho rằng những quy định pháp luật định cân nhắc cho robot một số quyền và nhiệm vụ là "không cần thiết về mặt đạo đức và quá phức tạp về mặt pháp lí" vì nó không phục vụ lợi ích gì của con người cả.
Nhiều người cho rằng việc cho robot một chủ thể đạo đức nhân tạo cũng không hẳn là một việc làm đạo đức cho lắm. Trong cộng đồng các nhà nghiên cứu về "nhận thức nhân tạo", họ lo ngại rằng liệu có ổn không khi ta có ràng buộc phải hành xử một cách có đạo đức với một thực thể vô tri, chẳng hạn như không được làm hại nó hoặc kết thúc sự tồn tại của nó bằng cách tắt nó đi.
10. Điểm kì dị
Điểm kì dị và siêu trí tuệ ở một vài nơi, mục đích tạo ra AI của họ được cho là hướng đến một "Trí tuệ nhân tạo chung" (Artificial General Intelligence – AGI), đối lập với AI thực hiện các nhiệm vụ "hẹp" và kĩ thuật. Đó là một "AI mạnh" – "những máy tính được cài đúng chương trình có khả năng hiểu và đạt được những trạng thái nhận thức khác".
Ý tưởng về điểm kì dị có thể giải thích là một hướng phát triển của trí tuệ nhân tạo. Khi đó, AI đạt đến một hệ thống có trí thông minh ngang với con người, và hệ thống đó bản thân nó lại có thể tạo ra các hệ thống AI khác vượt xa trí tuệ con người – siêu trí tuệ. Những hệ thống siêu trí tuệ AI đó có khả năng tự cải thiên mình và tự phát triển thành các hệ thống thậm chí còn thông minh hơn. Bước ngoặt của những sự kiện sau khi siêu trí tuệ AI ra đời là "điểm kì dị" mà từ điểm đó, sự phát triển của AI nằm ngoài khả năng kiểm soát của con người và rất khó dự đoán được nữa.
Một trong những "dự báo" về sự tăng tốc đến điểm kì dị của máy tính là của Kurzweil. Ông đã chỉ ra rằng năng lực tính toán của máy tính đã tăng theo hàm mũ (gấp đôi mỗi hai năm kể từ 1970, khớp với Định luật Moor về số lượng bán dẫn trong máy tính, và tiếp tục tăng trưởng như vậy trong một thời gian dài ở tương lai). Kurzweil dự đoán rằng vào năm 2010, siêu máy tính sẽ đạt đến năng lực tính toán của con người và vào năm 2030, viễn cảnh về việc "tải trí óc" con người lên máy tính sẽ thành hiện thực và điểm kì dị sẽ xảy ra vào năm 2045. Dĩ nhiên ông cũng nhận thức được rằng cái giá để tăng khả năng tính toán của máy tính không phải là rẻ nhưng vào những năm gần đây thì ngày càng nhiều tài trợ khổng lồ đổ vào các công ty AI. Các nhà khoa học dự đoán rằng, từ năm 2012-1018, năng lực tính toán để đào tạo một hệ thống AI có thể tăng trưởng gấp đôi chỉ trong hơn ba tháng, tức là mỗi hai năm sẽ tăng 300.000 lần, vượt xa tưởng tượng của Kurzweil.
Nhưng con đường đến "siêu trí tuệ" không chỉ thông qua việc tăng trưởng năng lực tính toán mà còn nhiều cách khác, chẳng hạn như mô phỏng toàn diện bộ não của con người trên máy tính, sự kết hợp giữa thực thể sinh học và máy móc...
Mặc dù việc gắn liền giữa siêu trí tuệ với năng lực tính toán trong nhận định của Kurzweil có thiếu sót nhưng có một điều ông đã đúng. Đó là loài người thường đánh giá thấp sự tăng trưởng theo hàm mũ. Một bài kiểm tra nhỏ: Nếu bạn bước theo cách mà mỗi bước chân sau bước một đoạn dài gấp đôi bước chân trước thì bạn sẽ đi bao xa trong 30 bước? (đáp án: gần ba lần so với khoảng cách từ Trái đất đến Mặt trăng). Hẳn vậy, hầu hết sự phát triển của AI là do sự sẵn có của các bộ vi xử lý ngày càng có tốc độ nhanh hơn, khả năng lưu trữ lớn hơn và được đầu tư hào phóng hơn. Và nó sẽ tiếp tục như vậy trong tương lai.
Cũng có nhiều quan điểm cho rằng điểm kì dị sẽ không xảy ra hoặc ít nhất là nó không đe dọa đến nhân loại. Nhưng kể cả khi nó khó xảy ra, thì vẫn có khả năng đáng kể sự phát triển của AI đi sai hướng. Triết học vốn không hoàn toàn là một môn khoa học, AI và robotics cũng vậy. Bởi vậy, đây vẫn là một chủ đề đáng bàn.
Mối đe dọa sống còn từ siêu trí tuệ
Nghĩ về siêu trí tuệ trong tương lai xa nổi lên câu hỏi liệu nó có dẫn đến sự tuyệt chủng của loài người, hay còn gọi là "đe dọa hiện sinh". Hệ thống siêu trí tuệ có thể có ưu tiên xung đột với sự hiện diện của loài người trên Trái đất và quyết định chấm dứt sự tồn tại đó – và bởi nó có trí tuệ vượt trội hơn chúng ta, nó có quyền năng để làm điều đó (hoặc cũng có thể nó kết liễu con người một cách tình cờ vì nó thực sự không quan tâm cho lắm).
Trong bài báo này, chúng tôi muốn bạn đọc cần nghĩ cho một tương lai xa. Liệu điểm kì dị (hay bất kì một sự kiện thảm khốc nào) có xảy ra trong 30, 300 năm hay 3000 năm nữa cũng không quá quan trọng. Có lẽ có một mẫu hình trong vũ trụ này cho thấy các loài thông minh sẽ khám phá ra AI vào một lúc nào đó và vì thế mà dẫn đồng loại của mình đến bờ diệt vong. "Bộ lọc vĩ đại" đó cũng củng cố thêm cho "Nghịch lý Fermi" (Fermi Paradox) lí giải rằng tại sao vẫn không có dấu hiệu sự sống nào trong khoảng vũ trụ mà ta đã biết dù khả năng ta phát hiện ra một nơi như vậy ngày càng cao. Sẽ là một tin tồi tệ nếu ta nhận ra rằng "bộ lọc vĩ đại đó" đang ở phía trước mình chứ không phải là đã ở đằng sau chúng ta.
Kiểm soát siêu trí tuệ?
Theo nghĩa hẹp, vấn đề kiểm soát là liệu con người còn duy trì được quyền kiểm soát với AI một khi nó trở thành siêu trí tuệ hay không? Theo nghĩa rộng hơn, đó là vấn đề của việc liệu chúng ta có thể đảm bảo hệ thống AI sẽ phát triển theo hướng tích cực hay không? Việc kiểm soát siêu trí tuệ này dễ hay khó phụ thuộc rất nhiều vào tốc độ phát triển của một siêu trí tuệ.
Một khía cạnh khác của vấn đề này là chúng ta có thể quyết định một chức năng này của AI là cần thiết, đáng theo đuổi nhưng rồi về sau mới phát hiện ra nó có những hệ quả không thể lường trước, quá nguy hiểm tới nỗi ta thà không có nó còn hơn. Nó chính là vấn đề cổ đại của vua Midas từng ước mọi thứ mình chạm vào đều biến thành vàng ròng. □