![見出し画像](https://assets.st-note.com/production/uploads/images/152976241/rectangle_large_type_2_a58c3fd6de1d0abf4d8a32d24edd7759.jpeg?width=1200)
Nghĩ về AI
Trong bộ phim khoa học viễn tưởng "I, Robot" ra mắt năm 2004, có một cảnh khiến chúng ta phải suy ngẫm sâu sắc về những vấn đề liên quan đến trí tuệ nhân tạo. Đó là cảnh thanh tra Spooner gặp phải một vụ tai nạn giao thông.
Trong vụ tai nạn này, xe của Spooner và một xe khác đều bị rơi xuống sông. Một robot cứu hộ nhanh chóng đến hiện trường để thực hiện nhiệm vụ cứu nạn. Tuy nhiên, do được lập trình sẵn, robot này đã so sánh xác suất sống sót giữa Spooner và cô bé Sarah mắc kẹt trong xe kia, và vì xác suất sống sót của Spooner cao hơn, nó quyết định cứu Spooner trước, dẫn đến cái chết của cô bé.
Spooner cảm thấy vô cùng "day dứt" trước quyết định của robot trong vụ tai nạn này. Kể từ đó, anh trở nên căm ghét các robot và trí tuệ nhân tạo, những thứ chỉ dựa vào các con số để ra quyết định. Cảnh phim này biểu tượng cho những vấn đề đạo đức mà xã hội chúng ta sẽ phải đối mặt trong tương lai, khi trí tuệ nhân tạo phát triển và trở nên phổ biến.
"Vấn đề chiếc tàu điện"
Thực tế, vấn đề đạo đức này thường được thảo luận trong bối cảnh trí tuệ nhân tạo với tên gọi "vấn đề chiếc tàu điện".
Giả sử một chiếc tàu điện đang mất kiểm soát và trên đường ray phía trước, có năm công nhân đang làm việc. Nếu chuyển hướng tàu sang một đường ray khác, thì chỉ có một công nhân làm việc ở đó. Trong tình huống này, trí tuệ nhân tạo nên chọn cứu năm người và hy sinh một người hay không?
Đây chính là vấn đề mà chúng ta phải đối mặt. Bản thân trí tuệ nhân tạo không thể tự đưa ra câu trả lời cho vấn đề đạo đức này. Nếu con người lập trình nó theo tư tưởng "hạnh phúc tối đa cho số đông", thì trí tuệ nhân tạo sẽ tuân theo và hy sinh một người để cứu nhiều người hơn.
Ví dụ, trong vụ tai nạn giao thông đã nêu, nếu lập trình để "ưu tiên cứu người có xác suất sống sót cao hơn", thì Spooner sẽ được cứu. Nếu lập trình để "ưu tiên cứu người trẻ và có cuộc đời phía trước dài hơn", thì cô bé Sarah sẽ được cứu.
Bản chất của vấn đề này không nằm ở công nghệ của trí tuệ nhân tạo, mà nằm ở sự phán xét đạo đức của con người. Sự xuất hiện của trí tuệ nhân tạo buộc chúng ta phải đối mặt với những quyết định khó khăn, vốn dĩ trước đây chỉ tồn tại trong lý thuyết, giờ đây đã trở thành thực tế. Vì vậy, khi xem xét sự phát triển của trí tuệ nhân tạo trong tương lai, chúng ta sẽ phải đưa ra những phán xét về những vấn đề đạo đức khó khăn này.
Sự "day dứt" với trí tuệ nhân tạo
Vấn đề không chỉ nằm ở kết quả quyết định mà trí tuệ nhân tạo đưa ra, mà còn là việc chúng ta có thể chấp nhận quyết định đó hay không. Nhiều người trong chúng ta, giống như thanh tra Spooner, sẽ cảm thấy một loại "day dứt" nào đó với các quyết định của trí tuệ nhân tạo, dù biết rằng đó là một quyết định hợp lý.
Vậy, sự "day dứt" đó bắt nguồn từ đâu? Có lẽ, nó xuất phát từ sự "không do dự" của trí tuệ nhân tạo. Chúng ta rùng mình với sự lạnh lùng dập khuôn của nó, mặc dù quyết định của AI còn hợp lý và chính xác hơn cả quyết định của con người.
Khi con người đối diện với những quyết định đạo đức khó khăn như vậy, ngay cả khi đã đưa ra quyết định đau đớn, chúng ta vẫn tiếp tục tự hỏi, "Liệu quyết định đó có thực sự đúng đắn?". sau mỗi quyết định, hình ảnh những gia đình, thân nhân những người hi sinh sẽ hiện lên trong đầu chúng ta. Còn Robot thì không.
Bản tính do dự, cắn rứt là một đặc quyền của loài người, thứ tài sản mà AI không có.
Suy nghĩ kỹ hơn về điều này, chúng ta nhận ra rằng hai từ "trí thông minh" và "trí tuệ" mà chúng ta thường sử dụng lẫn lộn thực ra là hai khái niệm tương tự nhưng khác biệt:
"Trí thông minh" là khả năng nhanh chóng tìm ra câu trả lời cho những câu hỏi có đáp án.
"Trí tuệ" là khả năng hoàn toàn ngược lại - khả năng tiếp tục đặt câu hỏi cho những câu hỏi không có đáp án, dù biết rằng sẽ không bao giờ có câu trả lời.