Meta Llama: Tất tần tật về mô hình AI nguồn mở

Mô hình Llama

Giống như mọi ông lớn công nghệ hiện nay, Meta sở hữu mô hình AI tạo sinh (generative AI) chủ lực của riêng mình, được gọi là Llama. Llama có phần độc đáo trong số các mô hình lớn ở chỗ nó là “nguồn mở”, nghĩa là các nhà phát triển có thể tải xuống và sử dụng nó theo ý muốn (với một số hạn chế nhất định). Điều đó trái ngược với các mô hình như Claude của Anthropic, GPT-4 của OpenAI (cung cấp năng lượng cho ChatGPT) và Gemini của Google, vốn chỉ có thể được truy cập thông qua API.

Tuy nhiên, vì lợi ích của việc mang đến cho các nhà phát triển sự lựa chọn, Meta cũng đã hợp tác với các nhà cung cấp bao gồm AWS, Google Cloud và Microsoft Azure để cung cấp các phiên bản Llama được lưu trữ trên đám mây. Ngoài ra, công ty đã phát hành các công cụ được thiết kế để giúp việc tinh chỉnh và tùy chỉnh mô hình trở nên dễ dàng hơn.

Dưới đây là tất cả những gì bạn cần biết về Llama, từ khả năng và phiên bản của nó đến nơi bạn có thể sử dụng nó. Chúng tôi sẽ tiếp tục cập nhật bài đăng này khi Meta phát hành bản nâng cấp và giới thiệu các công cụ dành cho nhà phát triển mới để hỗ trợ việc sử dụng mô hình.

Llama là gì?

Llama là một họ các mô hình – không chỉ là một:

  • Llama 8B

  • Llama 70B

  • Llama 405B

Các phiên bản mới nhất là Llama 3.1 8B, Llama 3.1 70B và Llama 3.1 405B, được phát hành vào tháng 7 năm 2024. Chúng được đào tạo trên các trang web bằng nhiều ngôn ngữ, mã nguồn mở và tệp trên web, cũng như dữ liệu tổng hợp (tức là dữ liệu được tạo bởi các mô hình AI khác).

Llama 3.1 8B và Llama 3.1 70B là những mô hình nhỏ gọn, được thiết kế để chạy trên các thiết bị từ máy tính xách tay đến máy chủ. Mặt khác, Llama 3.1 405B là một mô hình quy mô lớn yêu cầu phần cứng trung tâm dữ liệu (nếu không có một số sửa đổi). Llama 3.1 8B và Llama 3.1 70B kém khả năng hơn Llama 3.1 405B, nhưng nhanh hơn. Trên thực tế, chúng là các phiên bản “chưng cất” của 405B, được tối ưu hóa cho chi phí lưu trữ thấp và độ trễ thấp.

Tất cả các mô hình Llama đều có cửa sổ ngữ cảnh 128.000 token. (Trong khoa học dữ liệu, token là các bit dữ liệu thô được chia nhỏ, chẳng hạn như các âm tiết “tuyệt”, “vời” và “ơi” trong từ “tuyệt vời”.) Ngữ cảnh hoặc cửa sổ ngữ cảnh của mô hình đề cập đến dữ liệu đầu vào (ví dụ: văn bản) mà mô hình xem xét trước khi tạo đầu ra (ví dụ: văn bản bổ sung). Ngữ cảnh dài có thể ngăn các mô hình “quên” nội dung của tài liệu và dữ liệu gần đây, đồng thời tránh đi lạc chủ đề và ngoại suy sai.

128.000 token đó tương đương với khoảng 100.000 từ hoặc 300 trang, để tham khảo là khoảng độ dài của “Đồi gió hú”, “Gulliver du ký” và “Harry Potter và tên tù nhân ngục Azkaban”.

Llama có thể làm gì?

Giống như các mô hình AI tạo sinh khác, Llama có thể thực hiện một loạt các tác vụ hỗ trợ khác nhau, như viết mã và trả lời các câu hỏi toán học cơ bản, cũng như tóm tắt tài liệu bằng tám ngôn ngữ (tiếng Anh, tiếng Đức, tiếng Pháp, tiếng Ý, tiếng Bồ Đào Nha, tiếng Hindi, tiếng Tây Ban Nha và tiếng Thái). Hầu hết các khối lượng công việc dựa trên văn bản – hãy nghĩ đến việc phân tích các tệp như PDF và bảng tính – đều nằm trong khả năng của nó; không có mô hình Llama nào có thể xử lý hoặc tạo hình ảnh, mặc dù điều đó có thể thay đổi trong tương lai gần.

Tất cả các mô hình Llama mới nhất đều có thể được định cấu hình để tận dụng các ứng dụng, công cụ và API của bên thứ ba để hoàn thành nhiệm vụ. Chúng được đào tạo sẵn sàng để sử dụng Brave Search để trả lời các câu hỏi về các sự kiện gần đây, API Wolfram Alpha cho các truy vấn liên quan đến toán học và khoa học và trình thông dịch Python để xác thực mã. Ngoài ra, Meta cho biết các mô hình Llama 3.1 có thể sử dụng một số công cụ nhất định mà chúng chưa từng thấy trước đây (nhưng liệu chúng có thể sử dụng các công cụ đó một cách đáng tin cậy hay không lại là một vấn đề khác).

Tôi có thể sử dụng Llama ở đâu?

Nếu bạn chỉ muốn trò chuyện với Llama, nó đang cung cấp năng lượng cho trải nghiệm chatbot Meta AI trên Facebook Messenger, WhatsApp, Instagram, Oculus và Meta.ai.

Các nhà phát triển xây dựng bằng Llama có thể tải xuống, sử dụng hoặc tinh chỉnh mô hình trên hầu hết các nền tảng đám mây phổ biến. Meta tuyên bố họ có hơn 25 đối tác lưu trữ Llama, bao gồm Nvidia, Databricks, Groq, Dell và Snowflake.

Một số đối tác này đã xây dựng các công cụ và dịch vụ bổ sung dựa trên Llama, bao gồm các công cụ cho phép các mô hình tham chiếu dữ liệu độc quyền và cho phép chúng chạy ở độ trễ thấp hơn.

Meta đề xuất sử dụng các mô hình nhỏ hơn của họ, Llama 8B và Llama 70B, cho các ứng dụng đa năng như cung cấp năng lượng cho chatbot và tạo mã. Công ty cho biết, Llama 405B được dành riêng để chưng cất mô hình – quá trình chuyển giao kiến ​​thức từ một mô hình lớn sang một mô hình nhỏ hơn, hiệu quả hơn – và tạo dữ liệu tổng hợp để đào tạo (hoặc tinh chỉnh) các mô hình thay thế.

Điều quan trọng là giấy phép Llama hạn chế cách các nhà phát triển có thể triển khai mô hình: Các nhà phát triển ứng dụng có hơn 700 triệu người dùng hoạt động hàng tháng phải yêu cầu giấy phép đặc biệt từ Meta mà công ty sẽ cấp theo quyết định của mình.

Meta cung cấp những công cụ nào cho Llama?

Bên cạnh Llama, Meta cung cấp các công cụ nhằm mục đích làm cho mô hình “an toàn” hơn khi sử dụng:

  • Llama Guard, một framework kiểm duyệt

  • Prompt Guard, một công cụ để bảo vệ chống lại các cuộc tấn công injection prompt

  • CyberSecEval, bộ đánh giá rủi ro an ninh mạng

Llama Guard cố gắng phát hiện nội dung có vấn đề tiềm ẩn được đưa vào – hoặc được tạo ra – bởi mô hình Llama, bao gồm nội dung liên quan đến hoạt động tội phạm, bóc lột trẻ em, vi phạm bản quyền, thù hận, tự làm hại bản thân và lạm dụng tình dục. Các nhà phát triển có thể tùy chỉnh các danh mục nội dung bị chặn và áp dụng các khối này cho tất cả các ngôn ngữ mà Llama hỗ trợ ngay lập tức.

Giống như Llama GuardPrompt Guard có thể chặn văn bản dành cho Llama, nhưng chỉ chặn văn bản có ý định “tấn công” mô hình và khiến nó hoạt động theo những cách không mong muốn. Meta tuyên bố rằng Llama Guard có thể bảo vệ chống lại các prompt độc hại rõ ràng (tức là các jailbreak cố gắng vượt qua các bộ lọc an toàn tích hợp sẵn của Llama) ngoài các prompt chứa “đầu vào được injection”.

Đối với CyberSecEval, nó không phải là một công cụ mà là tập hợp các tiêu chuẩn để đo lường an ninh mạng. CyberSecEval có thể đánh giá rủi ro mà mô hình Llama gây ra (ít nhất là theo tiêu chí của Meta) đối với các nhà phát triển ứng dụng và người dùng cuối trong các lĩnh vực như “kỹ thuật xã hội tự động” và “mở rộng quy mô hoạt động mạng tấn công”.

Những hạn chế của Llama

Llama đi kèm với những rủi ro và hạn chế nhất định, giống như tất cả các mô hình AI tạo sinh.

Ví dụ: không rõ liệu Meta có đào tạo Llama trên nội dung có bản quyền hay không. Nếu có, người dùng có thể phải chịu trách nhiệm về hành vi vi phạm nếu họ vô tình sử dụng một đoạn trích có bản quyền mà mô hình đã sao chép lại.

Theo báo cáo gần đây của Reuters, Meta đã có lúc sử dụng sách điện tử có bản quyền để đào tạo AI bất chấp cảnh báo của chính các luật sư của họ. Công ty gây tranh cãi khi đào tạo AI của mình trên các bài đăng, ảnh và chú thích trên Instagram và Facebook, đồng thời khiến người dùng khó từ chối. Hơn nữa, Meta, cùng với OpenAI, là đối tượng của một vụ kiện đang diễn ra do các tác giả, bao gồm cả diễn viên hài Sarah Silverman, đệ trình về việc các công ty bị cáo buộc sử dụng trái phép dữ liệu có bản quyền để đào tạo mô hình.

Lập trình là một lĩnh vực khác mà bạn nên thận trọng khi sử dụng Llama. Đó là bởi vì Llama có thể – giống như các đối tác AI tạo sinh của nó – tạo ra mã có lỗi hoặc không an toàn.

Như mọi khi, tốt nhất là nên có một chuyên gia là con người xem xét bất kỳ mã nào do AI tạo ra trước khi kết hợp nó vào dịch vụ hoặc phần mềm.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *