Seminarinhalt
Entwickeln, Testen und Ausführen von Granite Family LLMs mit Red Hat Enterprise Linux AI (AI296) vermittelt den Teilnehmenden grundlegende Kenntnisse über die Feinabstimmung, Bereitstellung und Verwendung generativer KI-Modelle, die auf spezifische Geschäftsanforderungen zugeschnitten sind.
Dieser Kurs hilft den Teilnehmenden dabei, Kernkompetenzen für das Trainieren von Modellen in einer sicheren und privaten Umgebung aufzubauen.
Zusammenfassung der Trainingsinhalte
- Grundlagen generativer KI: Fähigkeiten, Herausforderungen, Modelle und Techniken
- Granite-Modelle für generative KI in Unternehmen
- Training großer Sprachmodelle mit Red Hat Enterprise Linux AI
- Bereitstellung trainierter Modelle mit Red Hat Enterprise Linux AI
Dieses Training basiert auf Red Hat Enterprise Linux AI 1.5.
Programm
Define Generative AI, its importance, benefits, and challenges. Learn to select suitable GenAI and LLM models and techniques, considering their capabilities, use cases, and limitations.
Granite Models For Enterprise Generative AI
Describe and understand Granite models, and their capabilities to solve enterprise use cases, compared to larger, closed models.
Training Large Language Models with Red Hat Enterprise Linux AI
Enable technical and non-technical stakeholders to collaborate in the creation, training, and deployment of large language models (LLMs) optimized for specific business needs by using Red Hat Enterprise Linux AI and IBM Granite.
Deploying Trained Models with Red Hat Enterprise Linux AI
Deploy, serve, and operate generative AI models trained with Red Hat Enterprise Linux AI.
Zielgruppen
- Datenwissenschaftler*innen und KI-Spezialist*innen, die mehr über Granite-Modelle und den Prozess des Trainings und der Anpassung von GenAI-Modellen an spezifische Geschäftsanforderungen erfahren möchten.
- Entwickler*innen mit grundlegenden KI-/ML-Kenntnissen oder Machine-Learning-Ingenieure, die daran interessiert sind, zu lernen, wie man KI-basierte Unternehmensanwendungen in einer Unternehmensumgebung und einer sicheren Umgebung entwickelt, testet und ausführt.
- Systemadministrator*innen, die lernen möchten, wie sie die Hybrid-Cloud-Infrastruktur ihres Unternehmens verwalten können, um die Einführung von generativer KI und LLMs voranzutreiben und gleichzeitig Sicherheitsrichtlinien durchzusetzen.
- Andere Fachleute, wie KMUs und Domänenexperten, die lernen möchten, wie sie zur Schulung sicherer Modelle beitragen können, die auf ihre Geschäftsanforderungen zugeschnitten sind.
Vorkenntnisse
- Grundlegende Kenntnisse in KI und ML sind empfehlenswert, aber nicht erforderlich.
- Vertrautheit mit der Linux-Befehlszeile.

