KI-Wissensmanagement mit LLMs, RAG und lokalen sowie cloudbasierten Ansätzen – Vertiefung
In diesem Workshop zeigen Ihnen Herr Georg Wernitznig (DIHOST), wie Künstliche Intelligenz – insbesondere Large Language Models (LLMs) in Kombination mit Retrieval-Augmented Generation (RAG) – genutzt werden kann, um ein intelligentes Wissensmanagement auf Basis bestehender Dokumente aufzubauen.
Im Zentrum steht die Frage, wie sich vorhandene schriftliche Unterlagen, etwa aus dem Qualitätsmanagement oder anderen dokumentengetriebenen Bereichen, so aufbereiten lassen, dass sie für KI-Systeme nutzbar werden und als Grundlage für ein modernes, unterstützendes Wissensmanagement dienen können.
Dabei werden sowohl cloudbasierte Ansätze als auch lokale bzw. On-Premises-Varianten betrachtet. Anhand konkreter Beispiele wird gezeigt, welche technischen Bausteine dafür notwendig sind, wie die Verarbeitung von Dokumenten in einem RAG-System funktioniert und welche Unterschiede sich in Bezug auf Aufwand, Datenschutz, Flexibilität und Einsatzmöglichkeiten ergeben.
Der Workshop ist modular aufgebaut:
Erster Termin: Überblick und Orientierung
Weitere Informationen
Zweiter Termin: Schwerpunkt Thema
Der vertiefende Termin besteht aus zwei thematischen Blöcken mit einer Pause dazwischen. Zur Auswahl stehen unteranderem:
– RAG in der Praxis
– Automatisierung
– Lokaler Ansatz