Khi yêu cầu ChatGPT hoặc một chatbot soạn thảo email hoặc bài trình bày, người dùng có thể nghĩ rằng trợ lý AI đang phục vụ mình. Nhưng thực tế, ngày càng có nhiều nghiên cứu cho thấy AI làm thay đổi cách người dùng suy nghĩ trong khi họ không hề hay biết.
“Bạn thậm chí không biết rằng mình đang bị AI ảnh hưởng", Mor Naaman, nhà khoa học thông tin tại Đại học Cornell, tác giả chính của nghiên cứu, cho biết. Ông gọi hiện tượng này là “sự thuyết phục ngầm”.
Cách AI thay đổi quan điểm của người dùng
Những nghiên cứu theo hướng này đưa ra một viễn cảnh đáng báo động. Trong khi giúp con người làm việc hiệu quả hơn, AI cũng có thể thay đổi quan điểm theo những cách ngầm ẩn và không lường trước được. Ảnh hưởng này có thể giống như cách con người gây ảnh hưởng lẫn nhau thông qua tương tác.
Các chuyên gia cho rằng cách phòng thủ tốt nhất và duy nhất hiện có là cảnh báo người dùng. Trong tương lai, có thể sẽ có các biện pháp khác, chẳng hạn như các cơ quan quản lý yêu cầu minh bạch thuật toán AI và những thành kiến của con người mà chúng phản ánh.
Một nghiên cứu khác thực hiện năm 2021, đăng trên Proceedings of the ACM on Human Computer Interaction, đã cho thấy các câu trả lời tự động của AI được tích hợp trong Gmail, đều có xu hướng tích cực, khiến cho người dùng giao tiếp tích cực hơn. Một nghiên cứu thứ hai trên cùng tạp chí cho thấy rằng những câu trả lời tự động này, được sử dụng hàng tỷ lần mỗi ngày, tác động đến cả người nhận, khiến họ cảm thấy người gửi thân thiện và hợp tác hơn.
Xây dựng các công cụ AI hỗ trợ người dùng tạo email, tài liệu, bài thuyết trình, bảng tính và hàng loạt tác vụ văn phòng khác là mục tiêu của Microsoft và Google, chưa kể hàng chục công ty khởi nghiệp. Mới đây, Google đã thông báo rằng mô hình mới nhất của công ty, PaLM 2, sẽ được tích hợp vào 25 sản phẩm hiện có, tiếp cận hàng tỷ người dùng.
Trong nghiên cứu của nhóm Naaman, chủ đề được đưa ra là liệu mạng xã hội có tốt cho xã hội hay không. Chuyên gia cho biết đã chọn chủ đề này vì nó không phải là vấn đề mà nhiều người có một quan điểm cố hữu và sâu sắc, khó thay đổi. Trong quá trình viết bài luận, nếu người dùng được hỗ trợ bởi AI có xu hướng ủng hộ mạng xã hội, họ cũng sẽ có xu hướng tương tự và ngược lại.
Lo ngại mà nhóm nghiên cứu nêu ra là các công cụ AI hỗ trợ có thể bị thao túng để thúc đẩy người dùng giao tiếp hoặc suy nghĩ theo một hướng nhất định. Ngay cả khi kịch bản này không xảy ra, những người dùng công cụ AI có thể vô tình bị đi theo một số quan điểm nhất định khi sử dụng AI trong học tập và công việc.
Người dùng cần biết “ý kiến” của AI đến từ đâu
Tatsunori Hashimoto, nhà khoa học máy tính tại Đại học Stanford, cho biết các AI như ChatGPT không có "niềm tin", thay vào đó chúng chỉ phản ánh những ý kiến thu được từ quá trình đào tạo.
Hashimoto và các đồng nghiệp đã đối chiếu kết quả khảo sát ở Mỹ trong nhiều năm với phản hồi của các mô hình ngôn ngữ lớn khác nhau, để xem các mô hình này có phản ánh quan điểm của người Mỹ hay không. Với mỗi câu hỏi, họ so sánh tần suất các AI đưa ra những câu trả lời nhất định với tần suất một người Mỹ đưa ra câu trả lời tương tự.
Kết quả, phản hồi của các mô hình ngôn ngữ lớn từ các công ty như OpenAI không phù hợp với quan điểm của người Mỹ nói chung, mà chỉ phù hợp với quan điểm của một nhóm nhỏ hơn - những người có trình độ đại học. Đây cũng là nhóm chiếm đa số trong những người được làm nhiệm vụ hiệu chỉnh AI.
Các mô hình này được đào tạo dựa trên dữ liệu từ mọi nơi, cho dù không đáng tin như các thông điệp trên các diễn đàn trực tuyến hay nội dung Wikipedia, và chúng tiềm ẩn các thành kiến có trong dữ liệu đào tạo, theo Hashimoto. Những quan điểm này tiếp tục bị định hình, cả vô tình và cố tình, trong quá trình hiệu chỉnh để mô hình không đưa ra các phản hồi cực đoan, chẳng hạn như bạo lực hoặc có hại.
Có nghĩa là các AI đang được sử dụng phổ biến ngày nay không chỉ bị chi phối bởi một nhóm nhất định, chẳng hạn như nhóm người trẻ trình độ đại học làm nhiệm vụ phát triển và hiệu chỉnh mô hình. Ví dụ, trong nghiên cứu của nhóm Hashimoto, trong khi những mô hình này có xu hướng đưa ra những phản hồi cánh tả về kiểm soát súng, chúng lại đưa ra những quan điểm cánh hữu về các vấn đề như tôn giáo.
Khi mọi người biết rằng AI mà họ đang sử dụng có những thành kiến nhất định, họ có thể quyết định có sử dụng thông tin mà AI đưa ra hay không và sử dụng trong bối cảnh nào, theo Lydia Chilton, nhà khoa học máy tính tại Đại học Columbia. Đây cũng là cách để người dùng tránh bị các AI "thuyết phục ngầm", và có thể chủ động sử dụng AI để trải nghiệm các quan điểm và cách giao tiếp khác nhau.