- 10:30 Uhr
- Christian Weyer
Webinar: ‘Talk to your systems’: LLM-Anbindung durch strukturierte Daten & Tool-Integration
Bekanntermaßen ist das "Sprechen" mit eigenen Daten (auch bekannt als RAG) der "Hello World"-Anwendungsfall für Gen AI & LLMs. Aber es gibt noch mehr zu entdecken! Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren. In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs und Applikationen mit der Power von LLMs zu verbinden. Sehen Sie, wie die transformative Natur von Generative AI eventuell auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit Anwendungen und Systemen sprechen!
Moderation
Gøran Homberg
Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.
Agenda
- Sprache als Interface: LLMs ermöglichen natürliche Interaktionen mit Systemen und machen Sprache zur zentralen Schnittstelle.
- LLM-Architekturen: End-to-End-Architekturen mit Language Models als integraler Bestandteil von Clients, APIs und Backend-Diensten.
- Strukturierte Daten & Function Calling: JSON-Schemata und Funktionsaufrufe als Schlüssel zur nahtlosen Integration von LLMs.
- Pragmatische Umsetzung: Tools wie Pydantic und Instructor vereinfachen robuste und valide LLM-Integrationen.
Material & Video zu "'Talk to your systems': LLM-Anbindung durch strukturierte Daten & Tool-Integration"
Links aus dem Webinar:
Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?
Slidedeck zu "'Talk to your systems': LLM-Anbindung durch strukturierte Daten & Tool-Integration"
Kommende Webinare: jetzt kostenlos anmelden
MCP: Plug & Pl-AI für KI-Integration eigener Daten & APIs
Christian Weyer | 11.06.2025 | 10:30 Uhr
Aktuelle Webinar-Aufzeichnungen
Marco Frodl | 16.04.2025 | 10:30 Uhr
Daniel Sogl | 02.04.2025 | 10:30 Uhr
Max Marschall | 04.12.2024 | 10:30 Uhr
Weitere Artikel zu AI, Generative AI, Ollama, OpenAI, Python, Structured Output

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig
