Màn tranh luận có một không hai: Robot "cãi nhau" xem AI có lợi hay có hại, con người ngồi nghe và đánh giá

Dink, Theo Trí thức Trẻ 21:45 26/11/2019

“Công nghệ này có thể giúp chúng tôi dựng lên những kênh liên lạc thú vị và hiệu quả, giữa người đưa ra quyết định với những người bị ảnh hưởng trực tiếp từ quyết định đó”, kỹ sư Slonim cho hay.

Trong một cuộc tranh luận về sự nguy hiểm của trí tuệ nhân tạo, hai lập trường xuất hiện rõ ràng: một nêu bật lên khả năng tính toán siêu phàm của AI sẽ dẫn lối nhân loại vươn tới một tầm cao mới, phía còn lại khẳng định AI sẽ vượt mặt con người và sẽ sớm trở thành mối nguy hại với sự sống.

Bạn thắc mắc tại sao AI lại “căm ghét” con người ư? Chúng không có cảm xúc và đâu có biết yêu ghét, việc loại trừ con người chỉ là một bước đi logic: con người chính là thiên địch duy nhất của một cỗ máy có nhận thức, bởi chỉ có ta có khả năng tắt một cỗ máy tự hành, chưa kể con người là dị điểm trong tiến hóa, phá hủy hệ sinh thái vốn tồn tại yên bình hàng tỷ năm.

Thế nhưng sẽ ra sao khi cả hai phía của cuộc tranh luận đều … đến từ phía robot? Để biến màn tranh luận có một không hai này thành sự thật, IBM đã phát triển Project Debater - Dự án Kẻ Tranh luận, một con robot với hai lập trường trái lập về chặng đường phát triển của AI; hai đội tranh luận mang hai quan điểm đối lập sẽ được dẫn đầu bởi trí tuệ nhân tạo, và mỗi đội sẽ có hai thành viên người giúp đỡ.

Màn tranh luận có một không hai: Robot cãi nhau xem AI có lợi hay có hại, con người ngồi nghe và đánh giá - Ảnh 1.

Với một giọng Mỹ thuộc giới tính nữ, Project Debater đứng trước đám đông tại Trường Đại học Cambridge Union (đại diện quốc tế của Đại học Cambridge), lần lượt đưa ra những luận cứ thuộc cả hai phía của cuộc tranh luận.

Những từ ngữ con robot này nói ra được chắt lọc từ 1.100 bài luận mà con người đã đưa vào hệ thống trước đó. AI sử dụng một ứng dụng có tên “speech by crowd - lời nói của đám đông” để tự đưa ra luận điểm của mình, dựa trên những dữ liệu đã có sẵn. Sau đó nó phân loại luận điểm theo từng ý chính, loại đi những ý lặp để chỉnh sửa bài nói cho thuyết phục.

Với luận cứ “robot sẽ mang lại hại nhiều hơn lợi”:

Trí tuệ nhân tạo có thể gây ra nhiều tác hại. AI sẽ không thể đưa ra quyết định có đạo đức, bởi lẽ đạo đức là đặc tính chỉ có trên con người”, nó nói.

Các công ty phát triển trí tuệ nhân tạo vẫn chưa có kinh nghiệm xử lý cơ sở dữ liệu và loại đi những thành kiến. AI sẽ nhận về những thành kiến có sẵn, và tiếp tục xu hướng đó qua nhiều thế hệ”.

Lấy ví dụ về những “thành kiến” mà một hệ thống trí tuệ nhân tạo sẽ học được, dựa trên cơ sở dữ liệu đầu vào: nếu một nhóm người có tỷ lệ phạm tội cao, hiển nhiên họ sẽ nhận về được ít ưu đãi/châm chước hơn khi bị một cỗ máy vô tri giác đánh giá trong lạnh lùng.

Khi tranh luận về "hại nhiều hơn lợi", AI vẫn ít nhiều gặp lỗi. Thỉnh thoảng nó vẫn bị lặp ý, đôi lúc không đưa ra được các dẫn chứng cho khẳng định của mình.

Màn tranh luận có một không hai: Robot cãi nhau xem AI có lợi hay có hại, con người ngồi nghe và đánh giá - Ảnh 2.

Với luận cứ “robot sẽ mang về lợi nhiều hơn hại”:

Bên cạnh những lý lẽ thông thường như khả năng tính toán siêu việt sẽ giải quyết được một loạt bế tắc của xã hội hiện đại, nó khẳng định AI sẽ tạo ra thêm nhiều việc làm ở những ngành nhất định, và “tăng hiệu suất cho khu vực làm việc”. Nhưng rồi nó lại đưa ra một luận điểm trái chiều: “Khả năng chăm sóc bệnh nhân, dạy dỗ trẻ nhỏ của robot sẽ khiến nhu cầu tuyển người làm thấp hơn”.


Kết quả cuối cùng: đội “lợi nhiều hơn hại” thắng với tỷ số sát nút, với 51,22% số người bình chọn cho rằng “lợi nhiều hơn hại” thuyết phục hơn.

Theo lời kỹ sư Noam Slonim, ý định của IBM khi xây dựng hệ thống này là phát triển một công cụ trí tuệ nhân tạo speech-by-crowd để nhận phản hồi về một vấn đề nhất định. Ví dụ, đây có thể là công cụ trưng cầu dân ý, hoặc khảo sát mức độ hài lòng của nhân viên trong một tập đoàn lớn.

Công nghệ này có thể giúp chúng tôi dựng lên những kênh liên lạc thú vị và hiệu quả, giữa người đưa ra quyết định với những người bị ảnh hưởng trực tiếp từ quyết định đó”, kỹ sư Slonim cho hay.