“Xấu hổ và Sai lầm” – Google thừa nhận mất kiểm soát tính năng tạo hình ảnh của AI Gemini

Đối mặt với hàng loạt chỉ trích về tính năng tạo hình ảnh của mô hình AI Gemini, Google mới đây đã lên tiếng thừa nhận sai lầm và tạm dừng mô hình. Chuyện gì đã xảy ra? Cập nhật nhanh cùng Techie nhé!

Chuyện gì đã xảy ra với Gemini?

Tính năng tạo hình ảnh của Gemini (đổi tên từ Bard) được phổ cập tới người dùng hồi đầu tháng 2 năm nay. Tuy nhiên, chỉ sau chưa đầy một tháng ra mắt, Google đã phải cho tạm dừng tính năng này sau khi nó liên tiếp tạo ra những hình ảnh gây tranh cãi.

Cụ thể, mô hình đã đưa sự đa dạng vào các bức ảnh nhưng lại không được training chính xác về bối cảnh lịch sử và vấn đề chủng tộc. Chẳng hạn, mô hình đã tạo ra hình ảnh người Viking có màu da khác với thực tế; hay tạo ra những binh lính Đức Quốc xã da màu và ngay cả tổng thống đầu tiên của Mỹ là George Washington cũng bị Gemini coi là người da màu. Lỗi này đã nhanh chóng trở thành một chủ đề bàn tán trên mạng xã hội và dẫn đến cáo buộc Google phân biệt chủng tộc với người da trắng.

Những hình ảnh gây tranh cãi của AI Gemini
Những hình ảnh gây tranh cãi của AI Gemini

Phản ứng của Google

CEO Google là Sundar Pichai mới đây đã lên tiếng thừa nhận sai lầm của Gemini. Trong thông báo nội bộ, Sundar khẳng định không có AI nào hoàn hảo, đặc biệt là ở trong giai đoạn ban đầu. Tuy nhiên, Google luôn đặt ra tiêu chuẩn cao đối với sản phẩm của mình. Vì thế, sai lầm trên là “không thể chấp nhận được”. CEO Google cũng cho biết đội ngũ phát triển Gemini hiện đang làm việc cật lực để khắc phục sự cố nói trên.

CEO Google
Sundar Pichai thừa nhận Gemini đã mắc lỗi sai “không thể chấp nhận được”

Theo đó, Google sẽ sớm đưa tính năng tạo hình ảnh trở lại Gemini sau vài tuần tới – sau khi mô hình đã cải thiện tính năng sản sinh về hình ảnh con người. Hiện tại, người dùng vẫn có thể dùng Gemini để tạo hình ảnh về động vật và các vật thể bình thường khác.

Vì sao có sai lầm trên?

Theo lập luận của Techcrunch, lỗi sai của Google là sự thiên vị mang tính hệ thống trong dữ liệu đào tạo.

Hãy thử lấy một ví dụ dễ hiểu như sau:

Bạn yêu cầu Gemini tạo ra 10 hình ảnh về “một người đang dắt chó đi dạo trong công viên.” Vì bạn không chỉ định loại người, chó, hoặc công viên, do đó mô hình sinh ra sẽ tạo ra những gì mà nó quen thuộc nhất.

Phần lớn dữ liệu người, chó và công viên trong kho dữ liệu mà mô hình hấp thụ là những người da trắng. Bởi trong thực tế, người da trắng chiếm tỷ lệ quá nhiều trong nhiều bộ sưu tập hình ảnh về chủ đề này (hình ảnh tồn kho, hình ảnh không cần bản quyền, v.v.), và do đó, mô hình sẽ mặc định chọn người da trắng trong nhiều trường hợp nếu bạn không chỉ định.

Đó chỉ là một hiện tượng của dữ liệu huấn luyện. Nhưng như Google chỉ ra, “bởi vì người dùng của chúng tôi đến từ khắp nơi trên thế giới, chúng tôi muốn nó hoạt động tốt cho mọi người. Nếu bạn yêu cầu một bức ảnh về cầu thủ bóng đá, hoặc ai đó đang dắt chó đi dạo, bạn có thể muốn nhận được một loạt người. Bạn có thể không chỉ muốn nhận được hình ảnh của người của một loại dân tộc (hoặc bất kỳ đặc điểm nào khác).”

Sự đa dạng
Hãy thử tưởng tượng, nếu bạn yêu cầu một hình ảnh với sự đa dạng như thế này nhưng chatbot lại trả kết quả cùng một kiểu người

Không có gì sai khi có được một bức ảnh của một người đàn ông da trắng đang dắt một con chó golden retriever trong một công viên ngoại ô. Nhưng sẽ là vấn đề nếu bạn yêu cầu 10 bức ảnh, và tất cả đều là các người đàn ông da trắng đang dắt chó golden trong các công viên ngoại ô. Đặc biệt là khi bạn lại đang sống ở một đất nước mà người dân da màu, giống chó và các công viên đều khác nhau.

Có nghĩa là, nếu người dùng không chỉ định một đặc điểm nào cụ thể, mô hình nên đưa ra những lựa chọn đa dạng, không phải là đồng nhất, mặc dù cách dữ liệu huấn luyện có thể làm cho nó bị thiên vị.

Tuy nhiên, mô hình Google đã mắc sai lầm là thiếu các huấn luyện cụ thể cho các hình huống lịch sử hay ngữ cảnh quan trọng. Trong một số trường hợp, thay vì trả ra kết quả là một loạt lựa chọn hình ảnh ngẫu nhiên về giới tính và dân tộc khác nhau, hệ thống cần đưa ra kết quả đúng với bối cảnh thực tế.

Nhìn chung, các lỗi từ mô hình là không thể tránh khỏi. Nhưng trách nhiệm không thuộc về mô hình, mà ở những người tạo ra chúng. Và đó là điều mà con người cần điều chỉnh để mô hình trở nên hữu ích hơn trong tương lai.

>>Xem thêm: Ra lệnh tử tế có thể khiến chatbot đưa ra câu trả lời tốt hơn?

Khám phá thêm
Temu, một ứng dụng mua sắm Trung Quốc, đang gây chấn động trên internet với những sản phẩm rất rẻ....
“Chúng ta đang sống trong thế giới VUCA” – Câu nói này đã diễn tả đúng tình trạng thế giới...
Trong bài viết này, Techie sẽ giới thiệu đến bạn bản chất của tính năng constraints và auto-layout figma, cũng...
Theo một “nguồn tin mật” cho hay, Ghibli chính thức công bố trailer phần tiếp theo của tựa phim Vùng...
Thuật toán Dijkstra là một công cụ quan trọng trong lý thuyết đồ thị và tối ưu hóa. Với khả...
Nếu như các ứng dụng hẹn hò như Tinder, Okcupid, Facebook Dating vẫn chưa đem đến cho bạn một anh...
“Nói Việt Nam không có văn hóa riêng do sao chép từ Trung Quốc chẳng khác gì nói Nhật Bản...
Cảm biến sinh học (Biosensor) đã đánh dấu một thành tựu quan trọng trong cuộc chiến chống đại dịch COVID-19 khi...