Generatieve AI voor DevOps: bouw je eigen LLM server
Volg de workshop Generatieve AI voor DevOps Engineers en leer een lokale LLM hosten met open-source, zonder dataverkeer naar de cloud. Inclusief RAG, GPU, API-koppeling en EU AI Act AI-geletterdheid.
Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten?
In de eendaagse workshop Generatieve AI voor DevOps Engineers bij AT Computing leer je hoe je je eigen lokale versie van ''ChatGPT'' opzet en gebruikt. Alles gebeurt volledig op basis van open-source technologie, zonder dataverkeer naar de cloud. De dag start met een introductie in Generatieve AI: welke LLM's zijn er beschikbaar en hoe zet je ze in? Daarna duiken we in de hardwarekant, waaronder GPU-acceleratie op virtuele machines en in containers.
Met diverse praktijkoefeningen richt je je eigen LLM-server in en maak je zelfs een eigen ''model''. Je leert ook hoe je een webgebaseerde client koppelt aan je LLM zodat je in feite je eigen ChatGPT-clone bouwt. Daarnaast ontdek je hoe je de LLM-API koppelt met Python, Retrieval Augmented Generation (RAG) toepast om met je eigen documenten te werken, afbeeldingen analyseert en zelfs loganalyse uitvoert met je LLM.
Door het volgen van deze cursus voldoe je direct aan de eisen vanuit de EU AI Act op het gebied van AI-geletterdheid: risico's, privacy, het delen van data, model bias en hallucinaties worden allemaal uitgebreid behandeld. Zo vergroot je niet alleen je praktische vaardigheden, maar blijf je ook volledig compliant met de nieuwe regelgeving.
Deze opleiding heeft de volgende onderwerpen:
#Wat is Generatieve AI?
- Welke LLM's zijn beschikbaar en hoe kun je ze gebruiken?
- Tokens, vectors en parameters
- Hardware: CPU versus GPU: hoe gebruik je GPU-acceleratie op Virtual Machines en in containers (Docker)
- Een LLM-server opzetten.
- Een eigen LLM-model maken.
- Een web-based client toepassen voor je eigen LLM.
- De LLM API verbinden met Python.
- Het gebruiken van je eigen documenten met je eigen LLM.
- Afbeeldingen analyseren met je eigen LLM.
- Log-analyse met je LLM.