Trình tạo ảnh AI mới của Grok, chatbot AI của Elon Musk, đã được ra mắt vào tối thứ Ba. Tính năng này cũng giống như chatbot, có rất ít biện pháp bảo vệ. Điều đó có nghĩa là bạn có thể tạo ra những hình ảnh giả mạo về việc Donald Trump hút cần sa trong chương trình Joe Rogan chẳng hạn, và tải thẳng lên nền tảng X. Nhưng thực tế không phải công ty AI của Elon Musk đứng sau sự “điên rồ” này, mà là một công ty khởi nghiệp mới – Black Forest Labs.
Sự hợp tác giữa hai bên đã được tiết lộ vào thứ Ba, khi xAI tuyên bố họ đang làm việc với Black Forest Labs để cung cấp năng lượng cho trình tạo ảnh AI của Grok bằng cách sử dụng mô hình FLUX.1. Là một công ty khởi nghiệp về hình ảnh và video AI ra mắt vào ngày 1 tháng 8, Black Forest Labs dường như đồng cảm với tầm nhìn của Musk về Grok như một “chatbot chống lại sự thức tỉnh”, không có những ràng buộc nghiêm ngặt như Dall-E của OpenAI hay Imagen của Google. Mạng xã hội này hiện đang tràn ngập những hình ảnh kỳ quặc từ tính năng mới.
Black Forest Labs có trụ sở tại Đức và gần đây đã thoát khỏi chế độ “ẩn mình” với 31 triệu USD tài trợ hạt giống, dẫn đầu là Andreessen Horowitz, theo một thông cáo báo chí. Các nhà đầu tư đáng chú ý khác bao gồm Giám đốc điều hành Y Combinator Garry Tan và cựu Giám đốc điều hành Oculus Brendan Iribe. Các nhà đồng sáng lập của công ty khởi nghiệp, Robin Rombach, Patrick Esser và Andreas Blattmann, trước đây là những nhà nghiên cứu đã giúp tạo ra các mô hình Stable Diffusion của Stability AI.
Theo Artificial Analysis, các mô hình FLUX.1 của Black Forest Lab vượt qua trình tạo ảnh AI của Midjourney và OpenAI về chất lượng, ít nhất là theo xếp hạng của người dùng trong lĩnh vực hình ảnh của họ.
Công ty khởi nghiệp này cho biết họ đang “cung cấp các mô hình của mình cho nhiều đối tượng”, với các mô hình tạo ảnh AI nguồn mở trên Hugging Face và GitHub. Công ty cho biết họ cũng có kế hoạch sớm tạo ra một mô hình văn bản thành video.
Trong thông cáo ra mắt, công ty cho biết họ đặt mục tiêu “nâng cao niềm tin vào sự an toàn của các mô hình này”; tuy nhiên, một số người có thể nói rằng làn sóng hình ảnh do AI tạo ra trên X vào thứ Tư đã làm điều ngược lại. Nhiều hình ảnh mà người dùng có thể tạo bằng công cụ của Grok và Black Forest Labs, chẳng hạn như Pikachu cầm súng trường tấn công, đã không thể được tạo lại bằng trình tạo ảnh của Google hoặc OpenAI. Chắc chắn không có nghi ngờ gì rằng hình ảnh có bản quyền đã được sử dụng để huấn luyện cho mô hình.
Đó là vấn đề
Việc thiếu biện pháp bảo vệ này có thể là lý do chính khiến Musk chọn cộng tác viên này. Musk đã nói rõ rằng ông tin rằng các biện pháp bảo vệ thực sự khiến các mô hình AI kém an toàn hơn. Musk đã tweet vào năm 2022: “Nguy hiểm của việc huấn luyện AI trở nên thức tỉnh – nói cách khác là nói dối – là chết người”.
Giám đốc hội đồng quản trị của Black Forest Labs, Anjney Midha, đã đăng trên X một loạt so sánh giữa các hình ảnh được tạo ra vào ngày đầu tiên ra mắt bởi Google Gemini và sự hợp tác Flux của Grok. Chuỗi bài đăng nêu bật các vấn đề đã được ghi nhận rõ ràng của Google Gemini với việc tạo ra hình ảnh chính xác về mặt lịch sử của con người, đặc biệt là bằng cách đưa sự đa dạng chủng tộc vào hình ảnh một cách không phù hợp.
Midha cho biết trong một tweet: “Tôi rất vui vì @ibab và nhóm đã xem xét vấn đề này một cách nghiêm túc và đưa ra lựa chọn đúng đắn”, đề cập đến việc FLUX.1 dường như tránh được vấn đề này (và đề cập đến tài khoản của nhà nghiên cứu chính của xAI, Igor Babuschkin).
Do sai sót này, Google đã xin lỗi và tắt khả năng tạo hình ảnh con người của Gemini vào tháng 2. Tính đến ngày hôm nay, công ty vẫn chưa cho phép Gemini tạo hình ảnh con người.
Một dòng chảy thông tin sai lệch
Việc thiếu biện pháp bảo vệ chung này có thể gây ra vấn đề cho Musk. Nền tảng X đã vấp phải nhiều chỉ trích khi những hình ảnh giả mạo do AI tạo ra mô tả Taylor Swift lan truyền trên nền tảng này. Bên cạnh sự cố đó, Grok tạo ra các tiêu đề gây ảo giác xuất hiện cho người dùng trên X gần như hàng tuần.
Chỉ mới tuần trước, 5 ngoại trưởng đã kêu gọi X ngừng lan truyền thông tin sai lệch về Kamala Harris trên X. Đầu tháng này, Musk đã chia sẻ lại một video sử dụng AI để sao chép giọng nói của Harris, khiến Phó Tổng thống như thể thừa nhận mình là một “người được thuê vì sự đa dạng”.
Musk dường như có ý định để thông tin sai lệch như thế này lan tràn trên nền tảng. Bằng cách cho phép người dùng đăng trực tiếp hình ảnh AI của Grok, dường như không có bất kỳ hình mờ nào, lên nền tảng, về cơ bản, ông ấy đã mở ra một dòng chảy thông tin sai lệch nhắm vào nguồn cấp tin tức X của mọi người.