KI-Wissensmanagement mit LLMs, RAG und lokalen sowie cloudbasierten Ansätzen – Überblick und Orientierung
In diesem Workshop zeigt Ihnen Herr Georg Wernitznig (DIHOST), wie Künstliche Intelligenz – insbesondere Large Language Models (LLMs) in Kombination mit Retrieval-Augmented Generation (RAG) – genutzt werden kann, um ein intelligentes Wissensmanagement auf Basis bestehender Dokumente aufzubauen.
Im Zentrum steht die Frage, wie sich vorhandene schriftliche Unterlagen, etwa aus dem Qualitätsmanagement oder anderen dokumentengetriebenen Bereichen, so aufbereiten lassen, dass sie für KI-Systeme nutzbar werden und als Grundlage für ein modernes, unterstützendes Wissensmanagement dienen können.
Dabei werden sowohl cloudbasierte Ansätze als auch lokale bzw. On-Premises-Varianten betrachtet. Anhand konkreter Beispiele wird gezeigt, welche technischen Bausteine dafür notwendig sind, wie die Verarbeitung von Dokumenten in einem RAG-System funktioniert und welche Unterschiede sich in Bezug auf Aufwand, Datenschutz, Flexibilität und Einsatzmöglichkeiten ergeben.
Der Workshop ist modular aufgebaut:
Erster Termin: Überblick und Orientierung
Im ersten Termin werden die Grundlagen, zentrale Begriffe und typische Umsetzungsansätze im Bereich KI-Wissensmanagement vorgestellt. Behandelt werden unter anderem der grundlegende Aufbau eines KI-gestützten Wissensmanagement-Systems, cloudbasierte Umsetzungen, lokale Ansätze sowie die Funktionsweise von RAG in der Praxis. Zum Abschluss werden mögliche Vertiefungsthemen vorgestellt und gemeinsam priorisiert.
Zweiter Termin: Schwerpunkt Thema
Dieses Themen werden im ersten Baustein gewählt.
Weitere Informationen