26.02.2025 | 

Webinar: ‘Talk to your systems’: LLM-Anbindung durch strukturierte Daten & Tool-Integration

Bekanntermaßen ist das "Sprechen" mit eigenen Daten (auch bekannt als RAG) der "Hello World"-Anwendungsfall für Gen AI & LLMs. Aber es gibt noch mehr zu entdecken! Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren. In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs und Applikationen mit der Power von LLMs zu verbinden. Sehen Sie, wie die transformative Natur von Generative AI eventuell auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit Anwendungen und Systemen sprechen!

Christian Weyer ist Mitbegründer und CTO von Thinktecture. Er ist seit mehr als zwei Jahrzehnten in der Softwarebranche aktiv.

Moderation

Picture of Gøran Homberg

Gøran Homberg

Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.

Agenda

  • Sprache als Interface: LLMs ermöglichen natürliche Interaktionen mit Systemen und machen Sprache zur zentralen Schnittstelle.
  • LLM-Architekturen: End-to-End-Architekturen mit Language Models als integraler Bestandteil von Clients, APIs und Backend-Diensten.
  • Strukturierte Daten & Function Calling: JSON-Schemata und Funktionsaufrufe als Schlüssel zur nahtlosen Integration von LLMs.
  • Pragmatische Umsetzung: Tools wie Pydantic und Instructor vereinfachen robuste und valide LLM-Integrationen.

Material & Video zu
"'Talk to your systems': LLM-Anbindung durch strukturierte Daten & Tool-Integration"

Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?

Slidedeck zu "'Talk to your systems': LLM-Anbindung durch strukturierte Daten & Tool-Integration"

Kommende Webinare: jetzt kostenlos anmelden

Schneller entwickeln mit Angular, GitHub Copilot und ChatGPT

Daniel Sogl | 30.04.2025 | 10:30 Uhr

MCP: Plug & Pl-AI für KI-Integration eigener Daten & APIs

Christian Weyer | 11.06.2025 | 10:30 Uhr

Aktuelle Webinar-Aufzeichnungen

Weitere Artikel zu AI, Generative AI, Ollama, OpenAI, Python, Structured Output

AI
mf

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert

Meta hat mit der Llama 4-Familie eine neue Generation von KI-Modellen vorgestellt, die durch zwei wesentliche Innovationen hervorsticht: ein 10-Millionen-Token-Kontextfenster und native Multimodalität. Die Familie besteht aus Scout (109 Milliarden Parameter), Maverick (400 Milliarden Parameter) und dem noch in Entwicklung befindlichen Behemoth (2 Billionen Parameter). Durch die Mixture-of-Experts-Architektur und Unterstützung für 200 Sprachen bieten diese Modelle europäischen Unternehmen eine attraktive Alternative zu proprietären Lösungen. Trotz hoher Hardware-Anforderungen und einiger Lizenzeinschränkungen ermöglichen sie eine souveräne KI-Strategie ohne Vendor Lock-in bei gleichzeitig wettbewerbsfähiger Leistung und Kosteneffizienz.
06.04.2025
Low-angle photography of metal structure
AI
cl-neu

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig

Künstliche Intelligenz (KI) ist spätestens seit der Veröffentlichung von ChatGPT in aller Munde. Wit WebLLM können Sie einen KI-Chatbot in Ihre eigenen Angular-Anwendungen integrieren. Wie das funktioniert und welche Vor- und Nachteile WebLLM hat, lesen Sie hier.
26.02.2024
AI
favicon

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View

With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023

Unsere Webinare

Unsere Artikel

Mehr über uns