Khi Generative AI nói dối, ai chịu trách nhiệm?
Việc chatbot AI đưa thông tin sai lệch không phải là trường hợp hiếm gặp. Nhưng một khi, những thông tin đó có thể gây ảnh hưởng sâu sắc đến cuộc sống của người khác lại là câu chuyện đáng lưu tâm hơn bao giờ hết. Vừa qua, một người dẫn chương trình radio ở Hoa Kỳ đã đệ đơn kiện ChatGPT về tội phỉ báng. Điều này đồng thời đặt ra câu hỏi: khi các công cụ Generative AI nói dối, ai sẽ chịu trách nhiệm cho vấn đề đó? Cập nhật ngay cùng Techie!
ChatGPT bị kiện về tội phỉ báng tại Georgia (Hoa Kỳ)
Mark Walters – người dẫn chương trình phát thanh ở Georgia đã đệ đơn lên tòa án sau khi ChatGPT tuyên bố rằng Walters đã từng bị buộc tội lừa đảo và biển thủ tiền từ một tổ chức phi lợi nhuận.
Theo vụ kiện, biên tập viên của tạp chí AmmoLand là Fred Riehl đã yêu cầu ChatGPT tóm tắt một vụ án có thật của tòa án liên bang bằng cách liên kết với một tệp PDF trực tuyến. ChatGPT đã phản hồi bằng cách tạo ra một văn bản tóm tắt chi tiết và thuyết phục, tuy nhiên lại bị sai lệch ở một số thông tin – bao gồm những cáo buộc sai về Mark Walters. Chatbot này nói rằng Walters đã từng chiếm dụng tiền từ một nhóm lợi ích đặc biệt mà anh ta đã phục vụ như một quan chức tài chính.
Đáng chú ý, mặc dù tuân thủ yêu cầu tóm tắt PDF của Riehl, ChatGPT thực sự không thể truy cập vào file đó mà không sử dụng các trình cắm bổ sung. Việc hệ thống không có khả năng cảnh báo Riehl về thực tế này là một ví dụ về khả năng đánh lừa người dùng của hệ thống.
Mặc dù Riehl chưa bao giờ công bố thông tin sai lệch do ChatGPT tạo ra nhưng anh đã kiểm tra thông tin với một bên thứ ba khác. Và bằng một cách nào đó từ hồ sơ vụ án, Walters sau đó phát hiện ra nội dung sai lệch này. Trong đơn kiện, Walters cho rằng: “OpenAI có thể đã biết, hoặc nên biết rằng thông tin Chatbot của công ty nói về anh ta là sai, hoặc Open AI đã cố tình lờ đi điều đó.”
Có nhiều tiền lệ về các vụ kiện phỉ báng con người. Nhưng rất hiếm khi, đối tượng gây ra thiệt hại lại là trí tuệ nhân tạo. “Tội phỉ báng của AI là một vấn đề hoàn toàn mới. Vì thế, có rất nhiều vấn đề cần được giải quyết”. John Villafranco, đối tác của công ty luật Kelley Drye & Warren, cho biết.
Không phải là lần đầu tiên ChatGPT bịa đặt thông tin về người khác
Hồi tháng 3, ông Brian Hood, thị trưởng của hạt Hepburn bang Victoria, Australia cũng đã lên tiếng cáo buộc ChatGPT vì đã phỉ báng ông. Chatbot nói rằng Hood từng phải ngồi tù vì nhận hội lộ.
Theo nguồn tin, Brian Hood trước đây từng làm việc cho công ty Note Printing Australia. Vào thời điểm đó, chính Hood đã vạch trần hành vi hối lộ của công ty ông làm việc. Trong một cuộc phỏng vấn với giới truyền thông, Hood nói rằng ông đã “trở thành nhân chứng cho bên công tố và trải qua tất cả các quy trình của vô số phiên tòa”.
Và có lẽ vì thông tin trên, ChatGPT đã hiểu lầm và trả về thông tin sai lệch rằng Hood đã “bị buộc tội hối lộ các quan chức ở Malaysia, Indonesia và Việt Nam từ năm 1999 đến 2005, bị kết án 30 tháng tù sau khi thừa nhận hai tội.”
“Điều thực sự đáng lo ngại là một số đoạn văn mà ChatGPT cung cấp dường như hoàn toàn chuẩn xác, bao gồm các con số, họ tên, ngày tháng, địa điểm…” Hood cho biết.
Chỉ mới cách đây vài ngày, một công ty luật ở Mỹ cũng đã bị phạt về việc 5.000 USD sau khi một trong các luật sư của công ty trích dẫn vụ kiện không có thật do ChatGPT tạo ra. “Tôi đã nghe nói về trang web mới này, và tôi đã nhầm tưởng rằng nó giống như một công cụ tìm kiếm siêu hạng”. Luật sư sau đó giải thích với thẩm phán.
Trước vụ việc trên, OpenAI đã đăng tải một tuyên bộ chối bỏ trách nhiệm trên trang chủ của ChatGPT, cảnh báo rằng hệ thống “đôi khi có thể tạo ra thông tin không chính xác”. Mặc dù vậy, công ty cũng nhiều lần nói rằng ChatGPT là một nguồn dữ liệu đáng tin cậy, mô tả hệ thống như một cách để “nhận câu trả lời” và “tìm hiểu cái gì đó mới.”
Hiện tại, vẫn chưa rõ liệu có quyền ưu tiên pháp lý để quy trách nhiệm cho một công ty về việc các hệ thống AI tạo ra thông tin sai lệch hoặc phỉ báng hay không. Vụ kiện của Walters với OpenAI có thể không quá to tát, nhưng nó đang đặt ra những câu hỏi pháp lý quan trọng sẽ được lặp lại ở các vụ kiện tương tự trong tương lai. Đồng thời, vụ việc cũng gián tiếp cảnh báo người dùng không nên chỉ thu thập thông tin trên chatbot mà không có kiểm chứng.
>>Xem thêm: Quên nỗi lo tận thế đi! Mối hiểm nguy thật sự của công nghệ AI đã xuất hiện và cấp thiết hơn nhiều!