Llama 3.2 stellt einen weiteren Fortschritt bei Open-Source-Modellen für große Sprachen dar. Das LLM baut auf seinen Vorgängern auf und bietet verbesserte Leistung und Vielseitigkeit.
Es ist in mehreren Parametergrößen erhältlich, die von 1 Milliarde bis 405 Milliarden reichen, was eine Skalierbarkeit für verschiedene Anwendungen ermöglicht. Das Modell wurde auf einem umfangreichen Datensatz von ca. 15 Billionen Token trainiert, die aus öffentlich zugänglichem Material stammen, was zu seinem robusten Sprachverständnis und seinen Generierungsfähigkeiten beiträgt. Llama 3.2 enthält architektonische Verbesserungen wie die SwiGLU-Aktivierungsfunktion, rotierende Positionseinbettungen (RoPE) und RMSNorm, die zusammen die Effizienz und Genauigkeit des Modells verbessern. Außerdem verfügt es über ein erweitertes Kontextfenster von 256k Token, das es dem Modell ermöglicht, Inhalte über wesentlich größere Textabschnitte zu verarbeiten und zu generieren - ideal für Aufgaben wie juristische Analysen, Forschungssynthese und Storytelling.
Darüber hinaus kann Llama 3.2 Fragen zu Bildern beantworten, komplexe visuelle Daten verarbeiten, Diagramme analysieren und Karten interpretieren, was es zu einem leistungsstarken Werkzeug für multimodale Anwendungen macht. Schließlich hat Meta AI Llama 3.2 unter einer Community-Lizenz veröffentlicht, die bestimmte kommerzielle Anwendungen erlaubt und eine breitere Akzeptanz in der Forschungs- und Entwicklungsgemeinschaft fördert.