“Xấu hổ và Sai lầm” – Google thừa nhận mất kiểm soát tính năng tạo hình ảnh của AI Gemini
Đối mặt với hàng loạt chỉ trích về tính năng tạo hình ảnh của mô hình AI Gemini, Google mới đây đã lên tiếng thừa nhận sai lầm và tạm dừng mô hình. Chuyện gì đã xảy ra? Cập nhật nhanh cùng Techie nhé!
Chuyện gì đã xảy ra với Gemini?
Tính năng tạo hình ảnh của Gemini (đổi tên từ Bard) được phổ cập tới người dùng hồi đầu tháng 2 năm nay. Tuy nhiên, chỉ sau chưa đầy một tháng ra mắt, Google đã phải cho tạm dừng tính năng này sau khi nó liên tiếp tạo ra những hình ảnh gây tranh cãi.
Cụ thể, mô hình đã đưa sự đa dạng vào các bức ảnh nhưng lại không được training chính xác về bối cảnh lịch sử và vấn đề chủng tộc. Chẳng hạn, mô hình đã tạo ra hình ảnh người Viking có màu da khác với thực tế; hay tạo ra những binh lính Đức Quốc xã da màu và ngay cả tổng thống đầu tiên của Mỹ là George Washington cũng bị Gemini coi là người da màu. Lỗi này đã nhanh chóng trở thành một chủ đề bàn tán trên mạng xã hội và dẫn đến cáo buộc Google phân biệt chủng tộc với người da trắng.
Phản ứng của Google
CEO Google là Sundar Pichai mới đây đã lên tiếng thừa nhận sai lầm của Gemini. Trong thông báo nội bộ, Sundar khẳng định không có AI nào hoàn hảo, đặc biệt là ở trong giai đoạn ban đầu. Tuy nhiên, Google luôn đặt ra tiêu chuẩn cao đối với sản phẩm của mình. Vì thế, sai lầm trên là “không thể chấp nhận được”. CEO Google cũng cho biết đội ngũ phát triển Gemini hiện đang làm việc cật lực để khắc phục sự cố nói trên.
Theo đó, Google sẽ sớm đưa tính năng tạo hình ảnh trở lại Gemini sau vài tuần tới – sau khi mô hình đã cải thiện tính năng sản sinh về hình ảnh con người. Hiện tại, người dùng vẫn có thể dùng Gemini để tạo hình ảnh về động vật và các vật thể bình thường khác.
Vì sao có sai lầm trên?
Theo lập luận của Techcrunch, lỗi sai của Google là sự thiên vị mang tính hệ thống trong dữ liệu đào tạo.
Hãy thử lấy một ví dụ dễ hiểu như sau:
Bạn yêu cầu Gemini tạo ra 10 hình ảnh về “một người đang dắt chó đi dạo trong công viên.” Vì bạn không chỉ định loại người, chó, hoặc công viên, do đó mô hình sinh ra sẽ tạo ra những gì mà nó quen thuộc nhất.
Phần lớn dữ liệu người, chó và công viên trong kho dữ liệu mà mô hình hấp thụ là những người da trắng. Bởi trong thực tế, người da trắng chiếm tỷ lệ quá nhiều trong nhiều bộ sưu tập hình ảnh về chủ đề này (hình ảnh tồn kho, hình ảnh không cần bản quyền, v.v.), và do đó, mô hình sẽ mặc định chọn người da trắng trong nhiều trường hợp nếu bạn không chỉ định.
Đó chỉ là một hiện tượng của dữ liệu huấn luyện. Nhưng như Google chỉ ra, “bởi vì người dùng của chúng tôi đến từ khắp nơi trên thế giới, chúng tôi muốn nó hoạt động tốt cho mọi người. Nếu bạn yêu cầu một bức ảnh về cầu thủ bóng đá, hoặc ai đó đang dắt chó đi dạo, bạn có thể muốn nhận được một loạt người. Bạn có thể không chỉ muốn nhận được hình ảnh của người của một loại dân tộc (hoặc bất kỳ đặc điểm nào khác).”
Không có gì sai khi có được một bức ảnh của một người đàn ông da trắng đang dắt một con chó golden retriever trong một công viên ngoại ô. Nhưng sẽ là vấn đề nếu bạn yêu cầu 10 bức ảnh, và tất cả đều là các người đàn ông da trắng đang dắt chó golden trong các công viên ngoại ô. Đặc biệt là khi bạn lại đang sống ở một đất nước mà người dân da màu, giống chó và các công viên đều khác nhau.
Có nghĩa là, nếu người dùng không chỉ định một đặc điểm nào cụ thể, mô hình nên đưa ra những lựa chọn đa dạng, không phải là đồng nhất, mặc dù cách dữ liệu huấn luyện có thể làm cho nó bị thiên vị.
Tuy nhiên, mô hình Google đã mắc sai lầm là thiếu các huấn luyện cụ thể cho các hình huống lịch sử hay ngữ cảnh quan trọng. Trong một số trường hợp, thay vì trả ra kết quả là một loạt lựa chọn hình ảnh ngẫu nhiên về giới tính và dân tộc khác nhau, hệ thống cần đưa ra kết quả đúng với bối cảnh thực tế.
Nhìn chung, các lỗi từ mô hình là không thể tránh khỏi. Nhưng trách nhiệm không thuộc về mô hình, mà ở những người tạo ra chúng. Và đó là điều mà con người cần điều chỉnh để mô hình trở nên hữu ích hơn trong tương lai.
>>Xem thêm: Ra lệnh tử tế có thể khiến chatbot đưa ra câu trả lời tốt hơn?