Ứng dụng Cấu trúc Nhận thức của Bernard Lonergan vào Trí tuệ Nhân tạo hợp Đạo đức
Vũ Văn An 21/Aug/2025
Bernard Lonergan đang
thuyết trình, không rõ ngày tháng, tác giả cũng không rõ, được cho là thuộc phạm
vi công cộng, nếu không thì là Sử dụng hữu lý
Trên Church Life Journal của Đại học Notre
Dame, ngày 15 tháng 8 năm 2025, Taylor Black (*) có bài viết về trí tuệ nhân tạo
(AI). Ông viết:
Vào một buổi chiều muộn tại Detroit, một người đàn ông tên Robert Williams đã bị
bắt ngay trên bãi cỏ trước nhà, trước sự kinh hoàng của gia đình. Anh ta bị đưa
vào tù và bị giam giữ gần ba mươi giờ vì một vụ trộm mà anh ta không hề thực hiện—tất
cả chỉ vì một AI nhận dạng khuôn mặt tuyên bố anh ta là thủ phạm.[1] Chỉ có một
vấn đề: Trí tuệ nhân tạo đã sai. Hình ảnh giám sát bị mờ, và ngoài việc là những
người đàn ông Mỹ gốc Phi có vóc dáng tương tự, Robert và nghi phạm thực sự
trông không giống nhau chút nào. Robert sau đó than thở: “Làm sao có thể giải
thích cho hai cô bé rằng một chiếc máy tính đã sai, nhưng cảnh sát vẫn lắng
nghe nó?”. Các con gái của ông đã chứng kiến người cha vô tội của mình bị còng
tay do lỗi của một chiếc máy, một lỗi đã để lại vết sẹo vĩnh viễn về sự bất
công trong gia đình.
Biến cố có thật này minh họa rõ nét những rủi ro về mặt đạo đức khi sử dụng trí
tuệ nhân tạo trong một số lĩnh vực nhất định. Khi các hệ thống trí tuệ nhân tạo
âm thầm len lỏi vào cuộc sống hàng ngày—từ các thuật toán quản lý nguồn cấp tin
tức đến tự động hóa hướng dẫn quyết định tuyển dụng và giám sát—mỗi hệ thống đều
hứa hẹn hiệu quả và hiểu biết sâu sắc, nhưng cũng tiềm ẩn rủi ro dẫn đến những
hậu quả không mong muốn. Một vụ bắt giữ sai trái, việc phê duyệt khoản vay
thiên vị, hay một bong bóng mạng xã hội bị bóp méo có thể đảo lộn cuộc sống và
làm xói mòn niềm tin. Chúng ta ứng phó với những thách thức như vậy như thế
nào? Làm thế nào chúng ta có thể đảm bảo những Kỹ thuật mạnh mẽ này phục vụ
công lý và lợi ích chung, thay vì phá hoại chúng? Chúng ta cần nhiều hơn những
giải pháp kỹ thuật; chúng ta cần sự khôn ngoan và sáng suốt về mặt đạo đức.
Trong hành trình tìm kiếm sự phân định đó, việc tìm đến một người dẫn đường bất
ngờ sẽ rất hữu ích: triết gia và nhà thần học Dòng Tên thế kỷ 20, Bernard
Lonergan. Lonergan được biết đến với việc nêu ra năm “giới luật siêu việt [transcendental
precepts]” như những thói quen của tâm trí và trái tim để theo đuổi chân lý
và lòng tốt: Hãy ý tứ, hãy thông minh, hãy hữu lý, hãy có trách nhiệm
và hãy yêu thương.[2] Những nguyên tắc này ban đầu được xây dựng để mô tả
cách con người chân thực đến với việc biết và quyết định, bắt nguồn từ điều mà
Lonergan gọi là “mong muốn hiểu biết không giới hạn” của chúng ta – một động lực
do Thiên Chúa ban tặng hướng tới chân lý và giá trị. Mặc dù ông sống rất lâu
trước khi Trí tuệ nhân tạo hiện đại ra đời, những hiểu biết sâu sắc của
Lonergan cung cấp một la bàn vô cùng hữu ích để định hướng những phức tạp về đạo
đức của thời đại Trí tuệ nhân tạo.[3] Mỗi nguyên tắc cung cấp một lăng kính mà
qua đó chúng ta có thể xem xét tương tác của mình với Trí tuệ nhân tạo: từ những
gì chúng ta nhận thấy, đến cách chúng ta suy nghĩ, phán đoán, hành động và cuối
cùng là tình yêu trong một thế giới ngày càng được định hình bởi các thuật
toán.
Tiếp theo là một hành trình tường thuật qua năm nguyên tắc này được áp dụng vào
cuộc gặp gỡ hiện đại của chúng ta với Trí tuệ nhân tạo. Bằng cách ý tứ đến cách
Trí tuệ nhân tạo định hình trải nghiệm của chúng ta, thông minh về khả năng và
giới hạn của nó, cân nhắc hữu lý những lời hứa của nó so với những nguy cơ, có
trách nhiệm trong cách chúng ta thiết kế và sử dụng nó, và yêu thương trong việc
đảm bảo nó phục vụ phẩm giá con người, chúng ta có thể vạch ra một con đường vừa
am hiểu Kỹ thuật vừa vững chắc về mặt đạo đức. Khi làm như vậy, chúng ta đáp lại
lời kêu gọi cấp bách để dẫn dắt Trí tuệ nhân tạo bằng trí tuệ của con người,
thay vì bị Trí tuệ nhân tạo dẫn dắt mà không suy tư.
Những nguyên tắc của Lonergan trong thời đại Trí tuệ nhân tạo
Năm nguyên tắc của Lonergan tạo thành một chuỗi các bước để nhận thức đạo đức,
giúp chúng ta vững vàng giữa những bước tiến nhanh chóng của Trí tuệ nhân tạo.[4]
Chúng đi từ quan sát đến hiểu biết, đến phán đoán, hành động và cuối cùng là định
hướng hướng đến điều tốt đẹp. Được đan xen vào một câu chuyện, những nguyên tắc
này có thể thay đổi cách chúng ta tiếp cận những cuộc gặp gỡ hàng ngày với máy
móc thông minh. Hãy cùng xem xét từng nguyên tắc và ý nghĩa của chúng đối với
thời đại Trí tuệ nhân tạo.
Hãy ý tứ
Hãy ý tứ đến những gì thực sự hiện hữu. Nguyên tắc đầu tiên này thúc giục chúng
ta ý tứ đến trải nghiệm của mình một cách có ý thức, chủ động nhận thức thay vì
trôi dạt một cách thụ động. Trong bối cảnh Trí tuệ nhân tạo, ý tứ có nghĩa là
nhận ra cách nhận thức của chúng ta về thế giới ngày càng được điều chỉnh bởi
các thuật toán – thường theo những cách tinh tế mà chúng ta hầu như không nhận
thấy.
Hãy xem xét hành động đơn giản là đọc tin tức. Nhiều người trong chúng ta lướt
qua các nguồn cấp dữ liệu trên Facebook, Twitter hoặc Google News, tin rằng
chúng ta đang xem một phần lớn các biến cố hiện thời. Trên thực tế, các thuật
toán Trí tuệ nhân tạo tinh vi đang tuyển chọn những gì chúng ta thấy, lựa chọn
các câu chuyện dựa trên các lần nhấp chuột, vị trí và hồ sơ trước đây của chúng
ta. Theo thời gian, sự cá nhân hóa này có thể bọc chúng ta trong một cái kén vô
hình của nội dung cùng chí hướng, một bong bóng sàng lọc [filter bubble]
củng cố thành kiến của chúng ta. “Nếu thuật toán chỉ hiển thị cho bạn những tin
tức mà nó nghĩ rằng bạn sẽ thích... bạn có thể không biết rằng những quan điểm
khác quan điểm này thậm chí có tồn tại hay không”, một nhà khoa học máy tính đã
cảnh báo như thế; nhà khoa học này lưu ý rằng vì tất cả đều được thực hiện “đằng
sau hậu trường”, chúng ta hầu như không nhận thấy chế độ ăn uống thông tin của
mình đang bị thu hẹp.[5] Nếu không ý tứ, chúng ta có thể sống dưới sự chi phối
của các ưu tiên thuật toán, nhầm lẫn một góc nhìn cục bộ với toàn bộ sự thật.
Do đó, việc ý tứ trong thời đại Trí tuệ nhân tạo đòi hỏi một loại chánh
niệm kỹ thuật số [digital mindfulness]. Chúng ta phải tự hỏi: Trợ lý thông
minh của tôi không nói với tôi điều gì? Những giọng nói nào có thể bị thiếu
trong nguồn cấp dữ liệu mạng xã hội của tôi? Các hệ thống Trí tuệ nhân tạo đang
định hình nhận thức của tôi về thực tại như thế nào? Điều này có thể có nghĩa
là nhận thấy rằng sau khi xem một video trên YouTube, các gợi ý “Tiếp theo” bắt
đầu kéo chúng ta vào một con đường cực đoan hơn hoặc nhận ra rằng “tuyến đường
nhanh nhất” của ứng dụng dẫn đường thực chất đang thu thập dữ liệu giao thông từ
chúng ta. Điều này có nghĩa là phải ý tứ đến những sai lệch tiềm ẩn trong xuất
lượng [output] của Trí tuệ nhân tạo—chẳng hạn như khi ứng dụng nhận dạng hình ảnh
liên tục gặp khó khăn với những khuôn mặt có làn da sẫm màu, hoặc khi một gợi ý
tự động hoàn thành có vẻ mang tính định kiến. Tóm lại, “Hãy Ý tứ” kêu gọi chúng
ta luôn tỉnh táo với những gì Trí tuệ nhân tạo đang làm xung quanh và với chính
chúng ta. Chỉ bằng cách nhìn nhận rõ ràng, chúng ta mới có thể hy vọng phản ứng
một cách chính đáng.
Hãy Thông Minh
Tiếp theo là sự hiểu biết. Thông minh nghĩa là đi sâu vào lý do và cách thức—tìm
kiếm sự thấu hiểu, tạo kết nối, tiếp thu kiến thức. Lời kêu gọi trở nên thông
minh của Lonergan mời gọi chúng ta vượt ra khỏi những ấn tượng bề ngoài và đặt
ra những câu hỏi sâu sắc hơn về các hệ thống Trí tuệ nhân tạo: Chúng hoạt động
như thế nào? Giới hạn của chúng là gì? Chúng được xây dựng dựa trên những giả định
nào?
Trong thực tế, điều này có thể bao gồm việc tìm hiểu một số kiến thức cơ bản về
Trí tuệ nhân tạo. Ví dụ, hầu hết các thuật toán Trí tuệ nhân tạo học hỏi từ dữ
liệu lịch sử. Điều đó có nghĩa là nếu dữ liệu bị sai lệch hoặc có định kiến,
“trí thông minh” của Trí tuệ nhân tạo sẽ thừa hưởng những sai sót đó. Một ví dụ
điển hình xuất hiện vài năm trước khi Amazon phát triển một Trí tuệ nhân tạo thử
nghiệm để hữu lý hóa quy trình tuyển dụng. Mục tiêu là tạo ra một chương trình
sàng lọc sơ yếu lý lịch và xác định những ứng viên hàng đầu. Nhưng dự án đã gặp
phải một trở ngại: đến năm 2015, các kỹ sư nhận ra Trí tuệ nhân tạo đang xếp hạng
các ứng viên một cách rõ ràng là không công bằng đối với phụ nữ.[6] Tại sao?
Thuật toán đã tự đào tạo dựa trên hồ sơ xin việc trong mười năm, hầu hết đến từ
nam giới (phản ảnh sự thống trị của nam giới trong ngành Kỹ thuật). Trên thực tế,
cỗ máy đã kết luận rằng nam giới là điều kiện tiên quyết để trở thành một kỹ sư
giỏi. Nó bắt đầu hạ cấp các sơ yếu lý lịch có đề cập đến “phụ nữ” (như trong “đội
trưởng câu lạc bộ cờ vua nữ”) hoặc đến từ các trường đại học nữ.
Trí tuệ nhân tạo đã làm chính xác những gì nó được dạy – tìm kiếm các mô hình
trong dữ liệu – nhưng nó thiếu hiểu biết để biết rằng những mô hình đó đang phản
ảnh sự thiên vị trong quá khứ chứ không phải thành tích trong tương lai. Amazon
đã khôn ngoan loại bỏ công cụ đó khi những điểm mù của nó trở nên rõ ràng. Câu
chuyện cảnh báo này nhấn mạnh lý do tại sao việc hiểu biết về Trí tuệ nhân tạo
là điều cần thiết. Chúng ta phải nỗ lực tìm hiểu tiềm năng cũng như giới hạn của
một hệ thống Trí tuệ nhân tạo. Đúng vậy, Trí tuệ nhân tạo có thể phát hiện các
mẫu hình trong các tập dữ liệu khổng lồ vượt xa khả năng của con người, mang lại
những hiểu biết hữu ích – từ việc phát hiện các dấu hiệu ban đầu của bệnh tật
trong các lần chụp chiếu [scan] y tế đến dự đoán thảm họa thời tiết. Nhưng Trí
tuệ nhân tạo không phải là phép thuật, cũng không phải là bất khả xâm phạm. Nó
không thực sự “hiểu” bối cảnh hay ý nghĩa; nó tìm kiếm mối tương quan, chứ
không phải nguyên nhân. Và nó sẽ khuếch đại một cách trung thực bất cứ điều gì
được nhúng vào quá trình đào tạo của nó.
Ví dụ, trong lĩnh vực thực thi pháp luật, một số thành phố đã áp dụng các thuật
toán dự đoán cảnh sát với hy vọng giảm tội phạm bằng cách phân bổ lực lượng tuần
tra của cảnh sát dựa trên số liệu thống kê tội phạm. Trên thực tế, những công cụ
này thường dẫn đến việc duy trì định kiến chủng tộc. Họ đã cử cảnh sát đến cùng
một khu dân cư được giám sát quá mức hết lần này đến lần khác, bởi vì bản thân
dữ liệu lịch sử đã bị bóp méo bởi hàng thập niên giám sát không cân xứng trong
các cộng đồng thiểu số.[7] Kết quả có thể là một vòng luẩn quẩn: càng nhiều cuộc
tuần tra thì càng có nhiều vụ việc được ghi nhận, điều này lại biện minh cho việc
tăng thêm các cuộc tuần tra, trong khi lại nhắm mục tiêu một cách không công bằng
vào người da màu.
Một cách tiếp cận thông minh sẽ nhận ra cạm bẫy này. Điều này đòi hỏi sự minh bạch
về cách Trí tuệ nhân tạo đưa ra quyết định và sự cảnh giác về chất lượng dữ liệu
của nó. Nó cũng có nghĩa là thừa nhận những gì Trí tuệ nhân tạo không thể làm:
nó không thể đánh giá giá trị, đạo đức, hay toàn bộ tính độc đáo của một tình
huống con người. Trở nên thông minh không phải là sở hữu tất cả kiến thức kỹ
thuật, mà là trau dồi sự hiểu biết thận trọng về khả năng và điểm yếu của Trí
tuệ nhân tạo. Theo Lonergan, đó là sự khác biệt giữa dữ liệu thô và hiểu biết
có ý nghĩa. Chúng ta cần hiểu biết đó để sử dụng Trí tuệ nhân tạo một cách khôn
ngoan.
Hãy Hữu Lý
Chỉ kiến thức thôi là chưa đủ; chúng ta phải đánh giá xem nên làm gì với nó. Hữu
lý nghĩa là áp dụng đánh giá phê phán và phán đoán đúng đắn vào những hiểu biết
mà chúng ta đã có được. Nó bao gồm việc đặt câu hỏi: Điều này có đúng không? Điều
này có tốt không? Và cân nhắc các lựa chọn dựa trên bằng chứng và các nguyên tắc
đạo đức. Trong một thế giới bão hòa Trí tuệ nhân tạo, việc hữu lý đòi hỏi chúng
ta phải sàng lọc những lời cường điệu và nỗi sợ hãi xung quanh Kỹ thuật và đánh
giá vai trò của Trí tuệ nhân tạo với sự trung thực và minh bạch về mặt đạo đức.
Một khía cạnh của sự hữu lý là cân nhắc về những đánh đổi và hậu quả của Trí tuệ
nhân tạo. Việc chúng ta có thể làm điều gì đó với Trí tuệ nhân tạo không có
nghĩa là chúng ta nên làm. Ví dụ, các bộ lọc nội dung do Trí tuệ nhân tạo điều
khiển trên mạng xã hội có thể chặn tuyên truyền cực đoan và ngôn từ kích động
thù địch—nhưng chúng cũng có thể vô tình kiểm duyệt các cuộc thảo luận chính
đáng hoặc biểu đạt nghệ thuật. Liệu sự đánh đổi này có đáng không? Tương tự, việc
trang bị Trí tuệ nhân tạo cho máy bay không người lái hoặc vũ khí tự động có thể
bảo vệ binh lính của chúng ta trong chiến đấu, nhưng rủi ro sai sót hoặc cái
giá phải trả về mặt đạo đức của việc giao phó các quyết định sinh tử cho máy
móc là gì? Hoặc hãy tưởng tượng một chiếc xe tự lái đối diện với một tình huống
tai nạn bất khả: liệu nó có nên đánh chệch lái để tránh một người đi bộ nếu làm
như vậy sẽ gây nguy hiểm cho hành khách? Không có thuật toán đơn giản nào cho
những tình huống khó xử về mặt đạo đức như vậy; chúng buộc chúng ta phải làm rõ
các giá trị và ưu tiên của con người. Một cách tiếp cận hữu lý không để những
câu hỏi này chỉ dành cho các kỹ sư; nó khẳng định rằng các nhà đạo đức học, triết
gia và cộng đồng có tiếng nói khi cân nhắc lợi ích và tác hại.
Hữu lý cũng có nghĩa là phê phán những câu chuyện lớn thường đi kèm với Kỹ thuật
mới. Một trong những câu chuyện như vậy là huyền thoại định mệnh thuyết Kỹ thuật
[technological determinism]- quan điểm cho rằng sự tiến bộ của Trí tuệ
nhân tạo là tất yếu và về cơ bản nằm ngoài tầm kiểm soát của chúng ta. Quan điểm
này, đôi khi được khuyến khích (ngầm hoặc công khai) bởi những người có tầm
nhìn xa của Big Tech, có thể ru ngủ xã hội vào sự chấp nhận thụ động bất cứ điều
gì Thung lũng Silicon mang lại.[8] Nếu “cuộc cách mạng Trí tuệ nhân tạo” là
không thể ngăn cản, tại sao lại phải bận tâm đặt câu hỏi về nó? Nhưng khuôn khổ
của Lonergan thúc giục chúng ta bác bỏ thuyết định mệnh đó.
Máy móc không chỉ tự biến hóa; con người thiết kế, đào tạo và triển khai chúng.
Tương lai của Trí tuệ nhân tạo sẽ được định hình bởi những lựa chọn và giá trị
của con người, cho dù chúng ta có thừa nhận điều đó hay không. Lý trí đòi hỏi
chúng ta phải giành lại quyền tự quyết của mình. Chúng ta nên xem xét kỹ lưỡng
những tuyên bố táo bạo (ví dụ, Trí tuệ nhân tạo sẽ sớm vượt qua trí thông minh
của con người trong mọi lĩnh vực) và phân biệt tiến bộ thực tế với khoa học viễn
tưởng hay chiêu trò tiếp thị. Chúng ta cũng nên lưu ý đến những hạn chế nội tại
của Trí tuệ nhân tạo: dù tinh vi đến đâu, Trí tuệ nhân tạo vẫn thiếu nhận
thức về bản thân, sự tương cảm và định hướng bẩm sinh hướng tới chân lý và lòng
tốt mà con người sở hữu.[9]
Nói cách khác, dù Trí tuệ nhân tạo có vẻ “thông minh” đến đâu, nó cũng không phải
là một tác nhân đạo đức. Hữu lý giúp chúng ta tránh gán cho Trí tuệ nhân tạo
quá nhiều trí tuệ hay thẩm quyền hơn mức nó xứng đáng. Nó giúp chúng ta tập
trung vào chân lý cơ bản rằng chúng ta chịu trách nhiệm về các công cụ mình tạo
ra. Tư thế phê phán, tìm kiếm chân lý này rất quan trọng nếu chúng ta muốn định
hướng Kỹ thuật hướng tới tiến bộ thực sự và tránh bị cuốn vào sự nhiệt tình thiếu
khảo chứng.
Hãy có trách nhiệm
Với kiến thức được soi sáng bởi lý trí, nguyên tắc thứ tư của Lonergan kêu gọi
chúng ta phải có trách nhiệm - hành động theo phán đoán tốt nhất của mình về điều
gì là đúng. Trong bối cảnh này, trách nhiệm có hai ý nghĩa: nó nói với những
người thiết kế và triển khai hệ thống Trí tuệ nhân tạo, và nói với tất cả chúng
ta, những người sử dụng hoặc bị ảnh hưởng bởi chúng. Nó nhắc nhở chúng ta rằng
đạo đức cuối cùng là về các quyết định và hành động cụ thể, chứ không chỉ là những
nguyên tắc trừu tượng.
Đối với các nhà thiết kế và phát triển Trí tuệ nhân tạo, có trách nhiệm có
nghĩa là xây dựng các hệ thống một cách có ý thức phù hợp với các giá trị đạo đức
và phục vụ lợi ích chung. Điều này có thể bao gồm việc tuân theo các phương
pháp hay nhất mới nổi cho thiết kế "Trí tuệ nhân tạo hợp đạo đức": kiểm
tra các thuật toán để phát hiện thiên vị, đảm bảo tính minh bạch về cách đưa ra
quyết định và bao gồm các ý kiến đa dạng trong quá trình phát triển. Nó cũng có
nghĩa là chống lại áp lực phải vội vàng đưa sản phẩm ra thị trường mà không kiểm
tra an toàn đầy đủ. Ví dụ, nếu một công ty Kỹ thuật đang phát triển phần mềm nhận
dạng khuôn mặt, một cách tiếp cận có trách nhiệm có thể bao gồm việc đặt ra các
tiêu chuẩn chính xác nghiêm ngặt cho các nhóm nhân khẩu học khác nhau trước khi
triển khai, và thậm chí lựa chọn không bán sản phẩm cho một số người dùng cuối
cùng [end user] nào đó (như các cơ quan chính phủ có hồ sơ nhân quyền
kém). Điều quan trọng là các nhà phát triển thừa nhận trách nhiệm của họ đối với
tác động xã hội của những sáng tạo của họ.[10] Họ không thể chỉ nói "thuật
toán đã quyết định" như thể điều đó sẽ giải thoát họ—lập trình viên là người
viết thuật toán, và dữ liệu mà thuật toán học hỏi được phản ảnh lịch sử con người.
Do đó, trách nhiệm phải được "thiết kế sẵn" ngay từ đầu.
Đối với người dùng và công dân hàng ngày, việc có trách nhiệm với Trí tuệ nhân
tạo có nghĩa là chịu trách nhiệm về cách chúng ta đưa những Kỹ thuật này vào cuộc
sống của mình. Đó là về sự tham gia chủ động chứ không phải là sự tiêu thụ thụ
động.[11] Trên thực tế, điều này có thể bao gồm các hành động và lựa chọn đơn
giản, cùng nhau, định hướng việc sử dụng Trí tuệ nhân tạo theo hướng tốt hơn.
Ví dụ:
• Đặt ra ranh giới cá nhân với Trí tuệ nhân tạo: hạn chế sự phụ thuộc của
bạn vào các tiện ích Trí tuệ nhân tạo có thể gây nghiện hoặc xâm phạm. Một người
dùng có trách nhiệm có thể quyết định tắt tính năng tự động phát thuật toán
trên nền tảng video để tránh việc cuộn trang vô tận, hoặc lên lịch "ngày
Sa-bát kỹ thuật số" thường xuyên để kiểm soát sự ý tứ của mình và không bị
các thuật toán thao túng liên tục.
• Yêu cầu sự minh bạch và công bằng: hỗ trợ các công ty và sản phẩm
minh bạch về hoạt động Trí tuệ nhân tạo của họ và ưu tiên quyền riêng tư của
người dùng và đạo đức dữ liệu. Điều này có thể có nghĩa là sử dụng một công cụ
tìm kiếm không theo dõi mọi hoạt động của bạn, hoặc chọn không sử dụng một ứng
dụng yêu cầu quyền truy cập xâm phạm mà không có lý do chính đáng.
• Vận động và giáo dục: lãnh trách nhiệm cũng mở rộng ra phạm vi
công cộng—tham gia vào các cuộc trò chuyện và tranh luận chính sách về Trí tuệ
nhân tạo. Người ta có thể vận động cho các luật cấm sử dụng rõ ràng có hại (ví
dụ: cấm sử dụng Trí tuệ nhân tạo thiên vị trong tuyển dụng hoặc kiểm soát) và ủng
hộ các sáng kiến giám sát chặt chẽ việc triển khai Trí tuệ nhân tạo.[12] Tương
tự như vậy, việc tự giáo dục bản thân và những người khác (trong gia đình, nhà
thờ và cộng đồng của chúng ta) về cả lợi ích và rủi ro của Trí tuệ nhân tạo là
một cách có trách nhiệm để xây dựng một xã hội hiểu biết hơn.
Mỗi hành động này phản ảnh nhận thức rằng chúng ta không phải là những khán giả
bất lực của cuộc cách mạng Trí tuệ nhân tạo. Đúng hơn, chúng ta là người quản
lý những công cụ mạnh mẽ này. Trong ngôn từ thần học, việc có trách nhiệm với Kỹ
thuật là một phần trong ơn gọi của chúng ta, trở thành người quản lý tốt công
trình sáng tạo - giờ đây được mở rộng để bao gồm cả những sáng tạo kỹ thuật số
của trí tuệ con người. Cũng như chúng ta chịu trách nhiệm về cách chúng ta đối
xử với môi trường hoặc với hàng xóm, chúng ta cũng chịu trách nhiệm về cách
chúng ta "đối xử" với Trí tuệ nhân tạo (và cách Trí tuệ nhân tạo đối
xử với người khác). Và điều này dẫn đến lời răn cuối cùng và tối hậu của
Lonergan, điều mang lại ý nghĩa sâu sắc nhất cho tất cả những lời răn khác.
Hãy Yêu Thương
Lonergan thường mô tả lời răn thứ năm là "Hãy yêu thương", theo đó
ông muốn nói đến một định hướng vô điều kiện hướng đến giá trị, lòng tốt, và cuối
cùng là Thiên Chúa.[13] Yêu thương là đặt lòng bác ái vào trung tâm của mọi nhận
thức và hành động của chúng ta. Không phải ngẫu nhiên mà những điều răn lớn nhất
trong đức tin Kitô giáo là yêu Chúa và yêu người lân cận. Bất cứ đạo đức nào dừng
lại ở trách nhiệm mà không vươn tới tình yêu thương sẽ vẫn lạnh lùng và không
trọn vẹn. Tình yêu thương hoàn thiện và tôn vinh đời sống đạo đức, hướng nó đến
sự tự hiến và lợi ích đích thực của người khác.
Đưa tình yêu thương vào mối quan hệ của chúng ta với Trí tuệ nhân tạo có nghĩa
là gì? Điều đó có nghĩa là, trước hết và quan trọng nhất, hãy giữ gìn phẩm giá
con người và lợi ích chung như kim chỉ nam của chúng ta. Hãy Yêu Thương nhắc nhở
chúng ta rằng mọi quyết định kỹ thuật cuối cùng đều là quyết định về con người
- về cách chúng ta tôn vinh hay làm mất hình ảnh của Chúa nơi người khác. Nếu một
ứng dụng Trí tuệ nhân tạo, dù ấn tượng đến đâu, làm suy yếu phẩm giá con người
hoặc cắt đứt kết nối giữa con người, thì tình yêu sẽ thôi thúc chúng ta đặt câu
hỏi hoặc thậm chí từ chối nó. Ngược lại, nếu một Kỹ thuật có thể được khai thác
để nâng đỡ con người, để chữa lành, để bao dung, để trao quyền cho những người
bị thiệt thòi, thì tình yêu sẽ thúc đẩy chúng ta theo đuổi và hỗ trợ nó.
Ở bình diện bản thân, việc yêu thương trong thời đại kỹ thuật số có thể bao gồm
những lựa chọn có chủ đích về vai trò của Kỹ thuật trong các mối quan hệ của
chúng ta. Ví dụ, sử dụng Trí tuệ nhân tạo theo cách thúc đẩy cộng đồng thay vì
cô lập. Điều này có thể đơn giản như tận dụng một ứng dụng nhắn tin để giữ liên
lạc với gia đình ở xa (thay vì lướt web một mình), hoặc phức tạp như thiết kế
các chương trình tiếp cận cộng đồng của nhà thờ sử dụng phân tích dữ liệu để phục
vụ người nghèo tốt hơn. Nó cũng có nghĩa là cảnh giác trước những cách Trí tuệ
nhân tạo có thể làm rạn nứt các mối quan hệ xã hội của chúng ta. Các thuật toán
mạng xã hội thường ưu tiên các bài đăng gây ra phản ứng mạnh mẽ, có thể gieo rắc
chia rẽ. Một cách tiếp cận yêu thương sẽ tìm cách khắc phục điều đó—có lẽ bằng
cách chủ động tiếp cận ngoại tuyến với một người mà chúng ta bất đồng quan điểm,
thay vì chỉ trích nhau trên Facebook. Nói cách khác, tình yêu nên định hình
cách chúng ta sử dụng Kỹ thuật, chứ không phải ngược lại. Như một tài liệu gần
đây của Vatican đã lưu ý, nếu Trí tuệ nhân tạo được sử dụng để giúp mọi người
nuôi dưỡng những kết nối chân thành, nó có thể đóng góp tích cực cho sự phát
triển của con người. Nhưng điều đó đòi hỏi một sự lựa chọn có ý thức đặt hạnh
phúc của con người lên hàng đầu.
Ở bình diện đạo đức rộng hơn, Hãy Yêu Thương chuyển thành cam kết rằng Trí tuệ
nhân tạo cuối cùng phải phục vụ những gì thực sự tốt đẹp cho nhân loại. Đức
Giáo Hoàng Phanxicô đã nhiều lần nhấn mạnh điều này, kêu gọi sử dụng các Kỹ thuật
mới theo cách thúc đẩy phẩm giá con người và lợi ích chung.[14] Tình yêu trong
hành động có nghĩa là chúng ta đo lường thành công của Trí tuệ nhân tạo không
chỉ bằng lợi nhuận hay hiệu quả, mà còn bằng cách nó tác động đến những người dễ
bị tổn thương nhất trong chúng ta. Liệu một thuật toán ngân hàng có đối xử công
bằng với người nghèo không? Liệu một hệ thống đề xuất nội dung có bảo vệ trẻ em
khỏi bị tổn hại không? Liệu các tiện ích do Trí tuệ nhân tạo thúc đẩy của chúng
ta có quan tâm đến những người có thể mất việc làm do tự động hóa không?
Một lăng kính tình yêu luôn hướng đến con người đằng sau điểm dữ liệu. Nó nhấn
mạnh rằng con người là mục đích, không phải phương tiện, và Kỹ thuật nên là
công cụ chăm sóc, chứ không phải là cái cớ để trốn tránh việc chăm sóc. Theo
thuật ngữ Kitô giáo, nếu chúng ta tạo ra các hệ thống Trí tuệ nhân tạo giúp đỡ
“những người bé mọn nhất” (Mt 25:40)—chẳng hạn như Trí tuệ nhân tạo chẩn đoán
cho các bệnh viện chưa được phục vụ đầy đủ hoặc ứng dụng phiên dịch cho người tị
nạn—thì chúng ta đang đi trên con đường của tình yêu. Nếu chúng ta làm ngược lại,
cho phép Kỹ thuật hạ thấp giá trị hoặc bóc lột con người, chúng ta đã đánh mất
cốt lõi nhân tính của chính mình.
Suy gẫm Thực tiễn và Thần học
Những nguyên tắc này có thể bén rễ như thế nào trong cộng đồng của chúng ta—đặc
biệt là các cộng đồng đức tin của chúng ta? Nhiệm vụ hướng dẫn Trí tuệ nhân tạo
về mặt đạo đức là quá lớn đối với bất cứ nhóm nào; nó đòi hỏi điều mà Đức Giáo
Hoàng Phanxicô gọi là một cuộc đối thoại rộng rãi giữa những người tin và những
người không tin về những vấn đề đạo đức cơ bản do Kỹ thuật đặt ra.[15] Giáo hội,
với hai thiên niên kỷ khôn ngoan về bản chất con người, tội lỗi và ân sủng, có
một vai trò quan trọng trong sự phân định văn hóa này. Nhưng Giáo hội phải làm
điều đó một cách khiêm nhường và hợp tác, tìm hiểu về Kỹ thuật ngay cả khi nó
tác động lên những hiểu biết thần học và đạo đức sâu sắc. Trước hết, các cộng đồng
tôn giáo có thể nêu gương trong việc phân định việc sử dụng Trí tuệ nhân tạo.
Cũng như các nhà thờ đã học cách đánh giá các phương tiện truyền thông như truyền
hình hay internet một cách phê phán, Trí tuệ nhân tạo cũng vậy. Ví dụ, một giáo
xứ có thể tổ chức một hội thảo về “Đời sống Kitô hữu trong thời đại kỹ thuật số”,
giúp giáo dân suy gẫm về việc sử dụng điện thoại thông minh, thuật toán mạng xã
hội và trợ lý Trí tuệ nhân tạo dưới góc độ đức tin của họ. Các mục tử và lãnh đạo
mục vụ có thể khuyến khích các hoạt động chánh niệm: có thể đề xuất một buổi
“xét mình Kỹ thuật” vào cuối ngày, nơi mọi người cùng cầu nguyện và suy gẫm về
việc họ sử dụng các công cụ kỹ thuật số trong ngày hôm đó đã giúp họ gần gũi
hơn hay xa rời Chúa và tha nhân hơn. Những suy tư như vậy đặt nền tảng cho hành
động ý tứ, thông minh, hữu lý, v.v. trong bối cảnh tâm linh. Chúng cũng gửi đi
một thông điệp: việc đặt câu hỏi về Kỹ thuật không phải là lạc hậu—mà là khôn
ngoan.
Giáo hội có thể đóng góp vào việc định hình đạo đức công cộng và các chính sách
về Trí tuệ nhân tạo. Truyền thống giáo huấn xã hội Công Giáo cung cấp một khuôn
khổ phong phú (các nguyên tắc như công ích, nguyên tắc phụ đới, phẩm
giá con người, ưu tiên chọn người nghèo) có thể định hướng hiệu quả cho đạo
đức Kỹ thuật. Hãy lấy nguyên tắc công ích làm ví dụ: nó thúc giục chúng ta xem
xét lợi ích của tất cả mọi người, đặc biệt là những người dễ bị tổn thương,
trong bất cứ quyết định xã hội nào. Áp dụng vào Trí tuệ nhân tạo, điều này có
thể có nghĩa là ủng hộ các quy định bảo vệ cộng đồng khỏi các quyết định có hại
do Trí tuệ nhân tạo thúc đẩy hoặc thúc đẩy quyền tiếp cận công bằng với Trí tuệ
nhân tạo có lợi (như sử dụng Trí tuệ nhân tạo trong y tế để phục vụ các khu vực
nghèo đói, không chỉ người giàu).
Trong những năm gần đây, chính Vatican đã tham gia vào cuộc thảo luận này—đồng
tài trợ cho Lời kêu gọi Rome về Đạo đức Trí tuệ nhân tạo và
triệu tập các chuyên gia thông qua các sự kiện như Đối thoại Minerva,
nơi quy tụ các nhà lãnh đạo Kỹ thuật và các nhà thần học để thảo luận về tác động
xã hội của Trí tuệ nhân tạo.[16] Những cuộc đối thoại liên ngành như vậy rất
quan trọng. Chúng phá vỡ sự ngăn cách thường tồn tại giữa các nhà phát triển Kỹ
thuật và các học giả nhân văn. Thật là một dấu hiệu đáng mừng khi thấy các nhà
khoa học máy tính, triết gia và giám mục ngồi cùng bàn, vật lộn với các câu hỏi
về việc học máy [machine learning] và trách nhiệm đạo đức. Chúng ta càng
khuyến khích những cuộc đối thoại này—trong các hội nghị học thuật, các phiên
điều trần của chính phủ, các cuộc họp đại kết—chúng ta càng xây dựng được sự hiểu
biết chung có thể hướng Trí tuệ nhân tạo đến những mục tiêu tích cực.
Về mặt thần học, chúng ta có thể xem xét sự xuất hiện của Trí tuệ nhân tạo
thông qua lăng kính đồng sáng tạo của con người dưới sự hướng dẫn của Thiên
Chúa. Khả năng phát minh ra các thuật toán phức tạp và máy móc thông minh của
chúng ta là biểu hiện của sự sáng tạo mà Thiên Chúa ban cho nhân loại. Trong
sách Sáng thế, con người được giao nhiệm vụ “canh tác và gìn giữ” khu vườn sáng
tạo (Sáng thế 2:15); chúng ta cũng được kêu gọi “tham gia một cách có trách nhiệm
vào hành động sáng tạo của Thiên Chúa” trên thế giới.[17] Phát triển Kỹ thuật
là một cách chúng ta thực hiện ơn gọi đó. Nhưng bất cứ hoạt động nào như vậy đều
đi kèm với trách nhiệm đạo đức. Cũng như việc sử dụng sự sáng tạo của chúng ta
để xây dựng một cây cầu hay một đột phá y học đều mang những hàm ý đạo đức, việc
tạo ra Trí tuệ nhân tạo cũng vậy.
Giáo hội có thể nhắc nhở chúng ta rằng Kỹ thuật không trung lập về mặt đạo đức—nó
thừa hưởng các giá trị của những người tạo ra và người sử dụng nó. Do đó, việc
xây dựng Trí tuệ nhân tạo không chỉ là một nhiệm vụ kỹ thuật mà còn là một nhiệm
vụ đạo đức. Việc định hình theo cách này có thể truyền cảm hứng cho các Kitô hữu
trong lĩnh vực Kỹ thuật, coi công việc của họ như một hình thức quản lý hoặc thậm
chí làm môn đệ: lập trình để phục vụ Chúa Kitô bằng cách phục vụ người khác. Nó
cũng có thể nhắc nhở tất cả chúng ta rằng lòng trung thành cuối cùng của chúng
ta không thể nằm ở Kỹ thuật hay tiến bộ vì lợi ích của chính nó, mà là ở Thiên
Chúa, Đấng đã giao phó cho chúng ta những món quà này vì lợi ích của những người
lân cận.
Cuối cùng, một bước tiến thiết thực là giáo dục và đối thoại ở cấp cơ sở. Các
giáo xứ, trường đại học và các nhóm Kitô giáo có thể thúc đẩy các nhóm nghiên cứu
tìm hiểu về đạo đức Trí tuệ nhân tạo, đảm bảo rằng cuộc trò chuyện không chỉ giới
hạn ở các chuyên gia. Những sáng kiến như vậy giúp giải mã Trí tuệ nhân tạo cho
người dân bình thường và xua tan cả sự lạc quan ngây thơ lẫn nỗi sợ hãi thái
quá. Chúng cũng trang bị cho những người có đức tin khả năng lên tiếng trước
công chúng, ủng hộ một tương lai Trí tuệ nhân tạo phản ảnh các giá trị của
chúng ta. Hãy tưởng tượng các ủy ban nhà thờ, giống như các ủy ban công lý xã hội
hoặc các nhóm chăm sóc sáng tạo, tập trung cụ thể vào đạo đức Kỹ thuật - giúp cộng
đồng luôn được cập nhật và tham gia vào các vấn đề từ quyền riêng tư dữ liệu đến deepfake.
Các ủy ban này có thể hợp tác với các công ty Kỹ thuật hoặc nhà hoạch định
chính sách địa phương để cung cấp phản hồi và hướng dẫn dựa trên các nguyên tắc
đạo đức. Khi các nhà thần học, nhà đạo đức học, kỹ sư và người dùng cùng nhau
thiện chí, chúng ta có cơ hội tốt hơn để xây dựng các hệ thống và chính sách
Trí tuệ nhân tạo hướng đến sự nâng cao thay vì gây hại.
Kết luận
Sự phát triển nhanh chóng của Trí tuệ nhân tạo mang đến cho chúng ta những lựa
chọn sẽ định hình linh hồn của xã hội. Liệu chúng ta sẽ trôi dạt, để tự động
hóa và thuật toán quyết định các điều kiện của cuộc sống con người? Hay chúng
ta sẽ tiếp cận những công cụ này với sự phân định và ý hướng tính, đảm bảo
chúng góp phần vào sự phát triển của con người? Những nguyên tắc siêu việt của
Bernard Lonergan—Hãy Ý tứ, Hãy Thông Minh, Hãy Hữu Lý, Hãy Có Trách Nhiệm,
Hãy Yêu Thương—mang đến một khuôn khổ vượt thời gian cho chính loại nhận thức
này. Chúng nhắc nhở chúng ta rằng dù Kỹ thuật của chúng ta mới mẻ đến đâu, những
quy trình cơ bản của sự phán đoán đúng đắn và hành động đạo đức vẫn không thay
đổi. Chúng ta phải mở mắt nhìn nhận thực tại, tìm kiếm sự hiểu biết, phán đoán
sáng suốt, hành động có đạo đức và tập trung tất cả vào tình yêu thương.
Đối với những người có đức tin, và thực sự là tất cả những người có thiện chí,
lời kêu gọi là áp dụng những thói quen của tâm trí và trái tim này vào lĩnh vực
Trí tuệ nhân tạo. Điều này có nghĩa là vun đắp một nền văn hóa phân định Trí tuệ
nhân tạo trong cuộc sống cá nhân, cộng đồng và các tổ chức của chúng ta. Nó có
nghĩa là từ chối bị choáng ngợp bởi những lời hứa hẹn hào nhoáng của Kỹ thuật,
và cũng từ chối việc coi thường Kỹ thuật, thay vào đó là đi theo con đường khó
khăn hơn của sự tham gia có hướng dẫn. Nó có nghĩa nhấn mạnh rằng nhân loại vẫn
là người dẫn dắt, vạch ra lộ trình tiến bộ Kỹ thuật với bàn tay vững chắc trên
la bàn đạo đức.
Có rất nhiều lý do để hy vọng. Trên khắp thế giới, các nhà đạo đức học, kỹ sư
và các nhà lãnh đạo tôn giáo đang ngày càng hợp tác chặt chẽ để đảm bảo Trí tuệ
nhân tạo được phát triển một cách có trách nhiệm. Các chính phủ đang bắt đầu soạn
thảo luật về tính công bằng và minh bạch của thuật toán. Các công ty Kỹ thuật,
dưới áp lực của công chúng, đang nói nhiều về đạo đức hơn bao giờ hết. Các trường
đại học Công Giáo đang phát triển các chương trình sinh thái truyền thông của
Giáo hội. Và vô số cá nhân đang học cách sử dụng điện thoại thông minh và trợ
lý Trí tuệ nhân tạo của họ một cách nhận thức hơn. Đây là những dấu hiệu cho thấy
chúng ta có thể định hình tương lai của Trí tuệ nhân tạo thay vì thụ động chịu
đựng nó.
Là các Kitô hữu, chúng ta tiếp cận tương lai với niềm hy vọng, không chỉ nhờ nỗ
lực của con người, mà còn bởi vì chúng ta tin tưởng vào một Thiên Chúa dẫn dắt
lịch sử. Nếu chúng ta mang những điều tốt đẹp nhất của truyền thống - sự khôn
ngoan của nó, sự nhấn mạnh vào phẩm giá của mỗi người, điều răn yêu thương của
nó - vào cuộc trò chuyện về Trí tuệ nhân tạo, chúng ta sẽ đóng vai trò như muối
và ánh sáng trong thế giới kỹ thuật số. Những thách thức về đạo đức của Trí tuệ
nhân tạo, cuối cùng, là sự phản ảnh của những thách thức lâu đời về quyền lực,
lòng kiêu hãnh, công lý và lòng bác ái. Các công cụ thì mới, nhưng bi kịch của
con người thì không. Trong mọi thời đại, Giáo hội đã được kêu gọi để nhận ra những
dấu chỉ của thời đại; ngày nay, một trong những dấu chỉ đó tỏa sáng trong các mạch
điện và mã neon. Bằng cách làm theo lời khuyên của Lonergan là phải ý tứ,
thông minh, hữu lý, có trách nhiệm và yêu thương, chúng ta có thể đảm bảo rằng
ngay cả khi chúng ta đổi mới, chúng ta vẫn không đánh mất nhân tính hay linh hồn
của mình.
Thước đo cuối cùng của thành công sẽ không phải là máy móc của chúng ta trở nên
thông minh đến mức nào, mà là chúng ta khai thác trí tuệ đó một cách khôn ngoan
và yêu thương như thế nào để cải thiện tất cả. Theo lời của một phân tích,
chúng ta phải "khẳng định vị thế tối cao của con người" trong việc
phát triển và sử dụng Kỹ thuật, hướng tới một thế giới mà Kỹ thuật thực sự phục
vụ nhân loại, chứ không phải ngược lại.[18] Với trái tim vững chắc trong tình
yêu thương và tâm trí được dẫn dắt bởi sự thật, chúng ta có thể nắm bắt các
công cụ của Trí tuệ nhân tạo mà không từ bỏ những gì làm nên con người đích thực
của chúng ta. Đó là hy vọng và thách thức trước mắt chúng ta—và nhờ ân sủng của
Thiên Chúa, đó là một thách thức mà chúng ta có thể vượt qua vì ích chung.
________________________________________
[1] Victoria Burton-Harris và Philip Mayor, “Bị bắt giữ oan vì nhận dạng khuôn
mặt không phân biệt được người da đen,” ACLU, ngày 24 tháng 6 năm
2020.
[2] Lonergan, Bernard J. F. Phương pháp trong Thần học. Tuyển tập các
tác phẩm của Bernard Lonergan, (CWL 14), do Robert M. Doran và John D.
Dadosky biên tập, Toronto: Nhà xuất bản Đại học Toronto, 2017, trang 22-23.
[3] Steven Umbrello, “Điều hướng Trí tuệ nhân tạo với các nguyên tắc siêu việt
của Lonergan,” Evangelization & Culture Online, ngày 25 tháng 4
năm 2024.
[4] Sđd.
[5] Casey Moffitt và Linsey Maughan, “Thiên kiến trong bong bóng: Nghiên cứu mới
cho thấy thuật toán lọc tin tức củng cố thiên kiến chính trị”, Illinois
Tech, ngày 1 tháng 11 năm 2021.
[6] Jeffrey Dastin, “Thông tin chi tiết: Amazon loại bỏ công cụ tuyển dụng Trí
tuệ nhân tạo bí mật cho thấy thiên kiến đối với phụ nữ”, Reuters,
ngày 11 tháng 10 năm 2018.
[7] NAACP, Tóm tắt vấn đề về Trí tuệ nhân tạo trong Cảnh sát dự đoán,
không có ngày.
[8] Steven Umbrello, “Điều hướng Trí tuệ nhân tạo với các nguyên tắc siêu việt
của Lonergan”, Sđd.
[9] Sđd.
[10] Sđd.
[11] Sđd.
[12] NAACP, Tóm tắt vấn đề về Trí tuệ nhân tạo trong Cảnh sát dự đoán, Sđd.
[13] Steven Umbrello, “Điều hướng Trí tuệ nhân tạo với các nguyên tắc siêu việt
của Lonergan”, Sđd.
[14] Deborah Castellano Lubov, “Đức Giáo Hoàng Phanxicô kêu gọi sử dụng trí tuệ
nhân tạo một cách có đạo đức”, Vatican News, ngày 27 tháng 3 năm
2023.
[15] Sđd.
[16] Sđd.
[17] Sđd.
[18] Steven Umbrello, “Điều hướng Trí tuệ nhân tạo với các nguyên tắc siêu việt
của Lonergan”, Sđd.
_________________________________
(*) Taylor Black dẫn dắt các chương trình chiến lược tại Văn phòng Giám đốc Kỹ
thuật (CTO) của Microsoft, nơi ông khám phá các ranh giới của đổi mới sáng tạo
và tinh thần kinh doanh của doanh nghiệp. Với bằng cấp cao về triết học và luật,
ông kết hợp sự nghiêm khắc về mặt trí tuệ với tính thực tiễn trong vai trò giảng
viên tại Trường Kinh doanh Foster thuộc Đại học Washington và ứng viên phó tế tại
Giáo phận Công Giáo Byzantine ở Phoenix.

Không có nhận xét nào:
Đăng nhận xét