Beratung vereinbaren
|
Beratung vereinbaren
Chatte mit deinen Daten

Aufbau eines Retrieval-Augmented-Generation-(RAG)-Systems

Am Mittwoch, 20. November in Heidelberg.

In diesem Workshop lernen die Teilnehmer, ein Retrieval-Augmented-Generation (RAG)-System zu entwickeln, das Anfragen effizient gegen eine umfangreiche Textdatenbank verarbeitet.

Durch den Aufbau eines Embeddings-basierten Indexes und die kontextuelle Beantwortung von Fragen anhand relevanter Dokumente erfahren die Teilnehmer, wie sie ihre Daten in eine interaktive, dialogbasierte Umgebung umwandeln

 

Für wen ist der Workshop geeignet?

Der Workshop richtet sich an Entwickler, die entweder noch keine oder nur geringe praktische Erfahrung mit Large Language Models (LLMs) haben und grundlegende Python-Kenntnisse mitbringen.

Lernziele

  • Datenaufbereitung und -persistierung für LLMs: Die Teilnehmer lernen, wie sie Daten für die Verarbeitung mit LLMs vorbereiten und diese effizient persistieren, um den Trainingsprozess zu unterstützen.
  • Verarbeitung von Textdaten mit LLMs: Die Teilnehmer erwerben Kenntnisse über die grundlegenden Schritte der Textdatenverarbeitung mit LLMs, von der Dateneinlesung bis zur Anwendung.
  • Praktische Erfahrungen mit LLMs: Durch praxisnahe Übungen sammeln die Teilnehmer wertvolle Erfahrungen im Umgang mit LLMs und deren vielfältigen Einsatzmöglichkeiten.

Agenda

Ab 09:00 Uhr: Registrierung und Begrüßungskaffe

10:00 Uhr: Einführung in das RAG-System

  • Vorstellung der RAG-Komponenten:
    • Streamlit UI
    • Langchain Backend
    • Azure OpenAI
    • Prompting
    • Agents
    • Multimodalität
  • Setup der RAG-Umgebung
  • Setup einer künstlichen Firmendatenbank

12:30 Uhr: Mittagspause

13:30 Uhr: Implementieren eines RAG-Prototyps mit den vorgestellten Komponenten

16:30 Uhr: Testen des RAG-Prototyp

ca. 17:00 Uhr: Ende des Workshops

Jeweils am Vor- und Nachmittag ist eine Kaffeepause vorgesehen.

Zur Anmeldung

Technische Anforderungen

Bitte bringe einen eigenen Laptop mit, der mindestens 100 MB freien Speicherplatz für Testdaten und eine Testdatenbank bietet. Installiere vor dem Workshop eine Python-Umgebung (Version 3.11) und richte eine virtuelle Umgebung ein. Hier findest du eine Anleitung dazu. 

Die Python-Umgebung ist für alle gängigen Plattformen verfügbar. Vor dem Workshop erhältst du außerdem einen Link zu einem GitHub-Repository mit dem notwendigen Setup, das du idealerweise bereits im Vorfeld herunterlädst.

Falls du ein firmeneigenes Gerät verwendest, überprüfe bitte vorab, ob eines der folgenden Probleme auftreten könnte:

  • Du hast keine Administrator-Rechte.
  • Strenge Sicherheitssoftware auf dem Firmenlaptop könnte den Zugriff einschränken.
  • Firmeneigene Proxy-Einstellungen, die in anderen Netzwerken möglicherweise nicht funktionieren.

Der Trainer

Position
Lead Consultant Generative AI
Fabian Kaiser ist Experte für Generative AI. Er hat nach seinem Master in Informatik mit Fokus auf Natural Language Processing (NLP) ein Jahr lang am Ubiquitous Knowledge Processing (UKP) Lab zu Argument Mining in juristischen Texten geforscht. Seitdem hat er an diversen Projekten mit Fokus auf Textverarbeitung, IoT und Cloud Computing gearbeitet.

Wann und wo?

  • Mittwoch, 20. November 2024, 9:00 - 17:00 Uhr
  • Grüne Meile 29, 69115 Heidelberg 

Der Workshop findet in den Räumlichkeiten von HMS statt. Die Anbindung an den öffentlichen Nahverkehr und den Hauptbahnhof ist sehr gut. Für Autofahrer stehen kostenfreie Parkplätze in der Tiefgarage zur Verfügung.  

 

Die Teilnahmegebühr beträgt 599 EUR (zzgl. 19% MwSt.) pro Teilnehmer. Getränke, Mittagessen und Snacks sind im Workshop-Preis enthalten.

Fabian Kaiser
Lead Consultant Generative AI

Jetzt anmelden!

© 2024 HMS Analytical Software
chevron-down