Fraunhofer FIT hat eine interne Task Force mit einem Budget von 1 Million Euro ausgestattet, um in einem kompetitiven Verfahren interne Projekte zur Entwicklung anwendungsfertiger Lösungen für Unternehmen vorzubereiten. Das Anwendungsspektrum der Projekte ist breit gefächert und umfasst zahlreiche vielversprechende Einsatzbereiche.
Accessible and Automatic Operational Process Improvement using Large Language Models
Process Mining (PM) zielt auf die Analyse von Ereignisdaten aus realen Prozessen ab, um daraus Informationen oder Wissen über den Prozess abzuleiten. In der realen Welt sind an der Analyse und Verbesserung von Prozessen Fachleute unterschiedlicher Wissensgebiete beteiligt, die in der Regel keine PM-Methodenexperten sind. Daher ist es von großem Interesse, PM-Methoden und ihre Ergebnisse für diese Fachleute zugänglich und verständlich zu machen. Große Sprachmodelle (LLMs) können diese Aufgabe im PM beschleunigen. Obwohl Arbeiten zu PM und LLM entstehen, gibt es keine systematische Evaluierung des Zusammenspiels. Auch die Nutzung von Graphen als PM-Ergebnisse in Zusammenarbeit mit Experten ist kaum beschrieben und evaluiert. Das Accessible and Automatic Operational Process Improvement using Large Language Modelsproject (AAOP LLM) untersucht zwei Schwerpunkte: (1) die Evaluierung von LLMs für PM im Allgemeinen durch die Konzeptualisierung von LLM-Eigenschaften und -Fähigkeiten, die für PM zwingend erforderlich sind, und (2) die Evaluierung der Fähigkeit von LLMs, Prozessmodelle in der Business Process Modeling Notation (BPMN) interaktiv zu machen, d.h. Fragen zu beantworten, Modelle zu erklären und Modelle basierend auf der Benutzerinteraktion anzupassen. Wir präsentieren einen Software Proof of Concept für das Zusammenspiel von BPMN und LLM im Kontext von PM, evaluieren die Leistungsfähigkeit von LLMs in der Interaktion mit Anwendern aus der Industrie und veröffentlichen das Konzept der Evaluation von LLM für PM.
BAföG Chatbot
Das Projekt zielt darauf ab, die unzureichende Inanspruchnahme des Bundesausbildungsförderungsgesetzes (BAföG) aufgrund von Informationslücken und falschen Vorstellungen über die Anspruchsvoraussetzungen zu beheben. Unser BAföG-Chatbot soll die Art und Weise revolutionieren, wie Studierende auf Informationen zum BAföG zugreifen und herausfinden, ob sie förderfähig sind, indem er den Prozess zugänglicher und interaktiver macht. Diese Innovation kann auf andere Sozialleistungen ausgeweitet werden und wir wollen die Beratungsqualität bei verschiedenen staatlichen Transferleistungen verbessern. Mit dem Einsatz einer interaktiven, dialogbasierten Schnittstelle verfolgen wir zwei primäre Ziele: Erstens soll der Zugang zu Informationen über BAföG für Studierende vereinfacht werden. Zum anderen sollen die Prozesse der Anspruchsberechnung intuitiver gestaltet werden. Durch die Integration von lokalen Open-Source Large Language Models (LLM) führt der Chatbot natürliche Dialoge mit den Nutzern und ermöglicht so ein intuitives Nutzererlebnis bei gleichzeitigem Schutz der Nutzerdaten. Wir verwenden Gesetzestexte, strukturierte Daten aus Wissensgraphen und ein umfassendes, eigens entwickeltes Berechnungstool, um präzise Bewertungen der Anspruchsberechtigung zu liefern. Dabei nutzt das LLM den Rechner als Hilfsmittel. Dieser Ansatz gewährleistet nicht nur die Verbreitung von geprüften Informationen, sondern passt sich auch effizient an komplexe Nutzeranfragen an. Wir planen, bis Juni 2024 ein Minimal Marketable Product zu haben, das die Möglichkeiten, die LLMs bieten, einem breiten Publikum demonstrieren kann. Darüber hinaus planen wir den Einsatz in verschiedenen Industrieprojekten und die Veröffentlichung wissenschaftlicher Arbeiten über unsere Forschungsergebnisse. Außerdem soll die Wirksamkeit von Informationsbehandlungen mit Chatbots im Vergleich zur traditionellen Informationsbereitstellung im Rahmen einer Doktorarbeit getestet werden.
CyberGuard – Creating Machine Readable Cybersecurity Playbooks with Large Language Models
Die Cybersicherheitsbranche strebt nach Automatisierung und Zusammenarbeit in den Arbeitsabläufen (oder Playbooks) für die Reaktion auf Cybervorfälle, um die Reaktionsfähigkeit zu verbessern. Den derzeitigen Cybersecurity-Services fehlt jedoch ein einheitlicher und standardisierter Ansatz für die Dokumentation und den Austausch von Prozessen für Cybersecurity-Vorfälle. Die manuelle Erstellung von standardisierten, maschinenlesbaren Ablaufplänen auf der Grundlage von alten, siloartigen oder halbstrukturierten Richtlinien ist für Sicherheitsexperten zeit- und ressourcenintensiv. CyberGuard zielt darauf ab, dieses Problem durch die Entwicklung einer KI-basierten Methodik zu lösen, die automatisch Playbooks für die Cybersicherheit genauso genau und effektiv übersetzt und austauscht wie manuell erstellte Playbooks, wobei große Sprachmodelle (LLMs) verwendet werden. Darüber hinaus zielt das Projekt darauf ab, die Herausforderungen des Datenschutzes und der Vertraulichkeit bei der gemeinsamen Nutzung von Playbooks zu bewältigen und den Austausch von Best Practices in der Branche zu ermöglichen. CyberGuard wird offen verfügbare LLMs auf lokale Datensätze abstimmen und Retrieval-Augmented Generation oder Prompt Engineering-Ansätze verwenden. LLMs haben zwar ihr Potenzial bei der Generierung von Inhalten wie Code und tabellarischen Daten unter Beweis gestellt, doch besteht eine Lücke zwischen den erwarteten und den erlebten Ergebnissen, insbesondere in Bezug auf die Dauer der Aufgabenerfüllung, die Genauigkeit und die Benutzerfreundlichkeit beim Verstehen und Debuggen. Unser Ziel ist es, LLM-Verbesserungsstrategien voranzutreiben, indem wir einen Rahmen schaffen, der komplexe Aufgaben in anpassbare Einzelabfragen zerlegt und automatische Verfeinerungsschleifen gewährleistet, um syntaktisch und semantisch korrekte Playbooks aus dem LLM zu erhalten. Der Mehrwert von CyberGuard umfasst eine prototypische Lösung zur Bereitstellung strukturierter und maschinenlesbarer Prozesse in standardisierten Formaten, die Flexibilität und Interoperabilität bei der Visualisierung der Richtlinien bieten. Dieses Projekt wird den Wissensaustausch und die Zusammenarbeit innerhalb der Cybersicherheitsbranche fördern und einen Schritt in Richtung Automatisierung von Reaktionsprozessen machen, während gleichzeitig Handlungsempfehlungen für menschliche Bediener ausgesprochen werden.
ELMTEX – E-health applications using Large Language Models for TEXtual information extraction and processing
ELMTEX wird von der Notwendigkeit angetrieben, Informationen aus unstrukturierten domänenspezifischen Texten, wie sie im medizinischen Bereich vorkommen, effizient zu extrahieren und zu strukturieren. Das Projekt ist durch die inhärenten Herausforderungen motiviert, die mit der Verarbeitung von domänenspezifischen Texten verbunden sind, einschließlich des Vorhandenseins von Synonymen und Homonymen und des Mangels an umfassenden Ground Truth Datensätzen. Diese Herausforderungen erschweren die Informationsextraktion bei kritischen medizinischen Aufgaben, wie z.B. systematische Literaturübersichten medizinischer wissenschaftlicher Daten, ICD-Kodierung von klinischen Aufnahmen und Rechnungsstellung. Um diese Herausforderungen zu bewältigen, zielt ELMTEX darauf ab, die Leistungsfähigkeit hochentwickelter LLMs wie LLaMA zu nutzen, indem sie an medizinische Texte angepasst werden. Dies beinhaltet eine Feinabstimmung dieser Modelle an sorgfältig ausgewählten Datensätzen, um die Komplexität der medizinischen Terminologie und des Kontexts zu verstehen. Ziel von ELMTEX ist es also, den Prozess der Informationsextraktion im medizinischen Bereich zu automatisieren. Um dies zu erreichen, wird ELMTEX Wortklassifikation, semantische Analyse und andere Strategien einsetzen, um Modelle zu trainieren, die in der Lage sind, Informationen in unstrukturierten Texten genau zu identifizieren und zu kategorisieren. Der Prozess stützt sich auf eine iterative Verfeinerung durch Feedback-Schleifen, um die Leistung der Modelle zu verbessern und sicherzustellen, dass sie auf reale medizinische Daten anwendbar sind. Zu den wichtigsten Vorteilen von ELMTEX gehören die Schaffung einer soliden Grundlage für die Verarbeitung medizinischer Texte und die Schaffung der Basis für künftige Projekte, die auf genaue und strukturierte Informationen angewiesen sind. Darüber hinaus wird das Projekt die Zusammenarbeit mit medizinischen und pharmazeutischen Einrichtungen wie der Uniklinik Köln und der Uniklinik Düsseldorf für neue Anwendungen der Technologie fördern, wodurch die Nutzung medizinischer Informationen in der Forschung, der klinischen Praxis und der Gesundheitsverwaltung verbessert werden könnte.
ENGAGE-D – Enhancing Gaia-X Data Access through Interactive SD Generation
ENGAGE-D möchte ein LLM-Framework entwickeln, das die Aspekte des Datenmanagements im Kontext von Datenräumen automatisiert. Dies beinhaltet die Verwendung von Retrieval Augmentation, um es dem LLM zu ermöglichen, Selbstbeschreibungen zu erstellen und verknüpfte Daten zur Verwendung im Datenraum abzurufen. Darüber hinaus wollen wir auch allgemeine Datenverarbeitungsaufgaben im Zusammenhang mit möglichen Datenanalysediensten für den Datenraum automatisieren. ENGAGE-D zielt auf 2 Dinge ab: Wir wollen die Interaktion mit Datenräumen vereinfachen, indem wir ein Werkzeug anbieten, das wichtige Konfigurations- und Betriebsprozesse in natürlicher Sprache konfigurieren oder automatisieren kann. Außerdem wollen wir einen Rahmen für generative Datenanalyse schaffen, indem wir die in diesem Projekt aufgebauten allgemeinen Datenverarbeitungsfähigkeiten wiederverwenden und verfeinern. In ENGAGE-D werden Python und langChain verwendet, um eine Pipeline rund um das LLM zu konfigurieren, die darauf abzielt, die für unsere Aufgaben notwendigen Informationen abzurufen, wie z. B. Selbstbeschreibungsvorlagen, Definitionen für verknüpfte Daten und Informationen über Daten und Datenquellen für die Verarbeitung. Wir nutzen auch Ausgabemanipulation, um ausführbaren Code zu identifizieren, Zielinformationen für unsere Aufgaben herauszufiltern und dem LLM Feedback zur weiteren Verarbeitung zu geben. Der Teil des Frameworks, das sich mit der Konfiguration von Datenräumen befasst, kann auch in anderen Datenraumprojekten eingesetzt werden. Der Datenverarbeitungsteil des Frameworks wird verwendet, um ab Juni 2024 bei potenziellen Kunden für unser Fachwissen im Bereich LLM zu werben, und wird in kommenden Industrieprojekten wiederverwendet werden. Darüber hinaus planen wir mindestens eine wissenschaftliche Arbeite über die Projektergebnisse pro Ziel zu veröffentlichen. Zusätzlich ist dieses Projekt mit den Promotionsthemen von mindestens drei Projektmitgliedern abgestimmt.
EnterpriseGPT – A FIT user research initiative
Die Integration von Large Language Models (LLMs) in Unternehmensumgebungen bietet sowohl Chancen als auch Herausforderungen für die Verbesserung der Produktivität am Arbeitsplatz und der Fähigkeiten der Mitarbeiter. Dieses Projekt, eine Zusammenarbeit zwischen einem Industriepartner und FIT, untersucht die Implementierung und Nutzung einer internen LLM-Anwendung durch die Mitarbeiter. Die LLM-Anwendung unterstützt die Mitarbeiter bei verschiedenen Aufgaben und befindet sich derzeit in der Pilotphase, wobei geplant ist, den Zugang auf Tausende von Mitarbeitern weltweit auszuweiten. Die Forschung zielt darauf ab, die Anpassung, die Akzeptanz und die Auswirkungen der LLM-Anwendung auf die tägliche Arbeit, die Selbstwahrnehmung und die berufliche Rolle der Mitarbeiter innerhalb des Unternehmens zu untersuchen. Die Forschung konzentriert sich auf die Anpassungsfähigkeiten von LLMs und zielt darauf ab, die dynamischen Bedürfnisse der Mensch-KI-Zusammenarbeit, die Faktoren, die diese Zusammenarbeit beeinflussen und die Einbeziehung von Erkenntnisse zur Verbesserung der LLM-Leistung bei der Bewältigung domänenspezifischer Herausforderungen zu erfüllen, um die Akzeptanz im Arbeitsalltag der Mitarbeiter zu verbessern. Zu diesem Zweck werden eine Reihe von wissenschaftlichen Beobachtungen, wie Umfragen und Interviews mit Mitarbeitern, sowie eine Reihe von Experimenten mit dem Industriepartner durchgeführt. Diese Initiative basiert auf einem interdisziplinären Ansatz, der Informatik, Innovationsmanagement und Interaktionsdesign miteinander verbindet. Das Projekt bietet die Möglichkeit, industrierelevante Erkenntnisse zu gewinnen, die auf andere Branchen übertragen werden können. FIT wird Fachwissen über die nutzerzentrierte Gestaltung von LLMs und deren Anpassung an domänenspezifische Anforderungen erwerben. Darüber hinaus positioniert sich das FIT durch die Erarbeitung von anwendungsorientierten Richtlinien und Ausbildungszertifikaten als relevanter Partner für Industriekooperationen.
LIKE – Language Model Integrated Knowledge Engine
Wissensarbeit ist in unserer informations- und dienstleistungsgetriebenen Gesellschaft von zentraler Bedeutung und wird geschätzt. Sie birgt jedoch eine Reihe von Herausforderungen, wie z. B. ihren arbeitsintensiven Charakter, ihre Fehleranfälligkeit und ihre zeitaufwändigen Prozesse. Darüber hinaus verschärft der zunehmende Fachkräftemangel diese Herausforderungen und erfordert dringende Aufmerksamkeit und innovative Lösungen. Das Ziel des LIKE-Projekts ist die vollständige Automatisierung von Wissensarbeitsprozessen durch den Einsatz von LLM-basierten Agenten. Diese Agenten sollen in der Lage sein, selbständig zu interagieren, Entscheidungen zu treffen und verschiedene Aufgaben der Wissensarbeit auszuführen. Diese Automatisierung verspricht, die mit der Wissensarbeit verbundenen Herausforderungen zu entschärfen. Das LIKE-Projekt konzentriert sich in erster Linie auf die Orchestrierung von Agenten und Workflows und erforscht die Automatisierung am Beispiel der Erstellung von Forschungspapieren oder White Papers, wobei verschiedene praktische Anwendungsszenarien untersucht werden. Aus technischer Sicht befasst sich das LIKE-Projekt mit der Entwicklung von LLM-basierten Agenten-Kommunikationsketten, der Implementierung von Speicher durch Wissensgraphen und der Integration von externen Werkzeugen mit den Agenten. Das LIKE-Projekt nutzt das Forschungsparadigma der Design Science als methodischen Rahmen und integriert eng miteinander verbundene und iterative strukturierte Entwurfs- und Evaluierungsphasen. Der Schwerpunkt liegt dabei auf der Bewertung der praktischen Relevanz der entwickelten Artefakte in Zusammenarbeit mit Interessenvertretern aus der Industrie. Zu den Bewertungsinstrumenten gehören Interviews, Literaturrecherche und Prototyp-Benchmarking, um eine gründliche Prüfung und Verfeinerung während des gesamten Projektzyklus zu gewährleisten. Die Ergebnisse des LIKE-Projekts tragen in erster Linie dazu bei, die technische und methodische Kompetenz im Bereich der agentenbasierten LLM-Automatisierung zu fördern. Diese Erkenntnisse werden unser Verständnis des Fachgebiets bereichern und als Grundlage für die Einwerbung industriell finanzierter Forschungsprojekte während und nach der Projektlaufzeit dienen.
LLM2BIZ – Applied LLM-Workshops for Executives
Unser Projekt konzentriert sich auf die Entwicklung eines umfassenden Workshop-Konzepts für Large Language Models (LLMs), um Führungskräften aus der Wirtschaft praktische Fähigkeiten und interdisziplinäres Verständnis zu vermitteln. Durch die Verknüpfung von akademischen Erkenntnissen und praktischer Anwendung wollen wir Führungskräfte in die Lage versetzen, LLMs zu identifizieren, zu bewerten und in ihren Branchen effektiv zu nutzen. Die Workshops werden ethische, rechtliche und wirtschaftliche Aspekte von LLMs behandeln und den Teilnehmern didaktisch hochwertige Lernmöglichkeiten bieten. Darüber hinaus werden informative Whitepapers wichtige Themen im Zusammenhang mit LLMs beleuchten, um das Verständnis und die Verbreitung von Wissen zu fördern. Unser Projekt verbindet die theoretische Erforschung mit der praktischen Umsetzung und befasst sich mit Compliance-Anforderungen, Kostenfaktoren und methodischen Kompetenzen, die für die Anwendung von LLM erforderlich sind. Wir setzen uns aktiv für die Klärung ethischer und rechtlicher Erwägungen ein und untersuchen gleichzeitig die wirtschaftlichen Auswirkungen und Möglichkeiten, die mit LLM verbunden sind. Ethische, rechtliche und regulatorische Aspekte sind integraler Bestandteil unseres Projekts, mit Workshops, die der Förderung einer verantwortungsvollen und ethischen Nutzung von LLM gewidmet sind. Durch die Förderung einer nachhaltigen und verantwortungsbewussten Nutzung von LLMs leisten wir einen Beitrag zu den nachhaltigen Entwicklungszielen der Vereinten Nationen wie menschenwürdige Arbeit und Wirtschaftswachstum, Industrie, Innovation und Infrastruktur sowie hochwertige Bildung und lebenslanges Lernen. Unsere Initiative steigert nicht nur Wirtschaftswachstum und Innovation, sondern schafft auch Beschäftigungsmöglichkeiten und fördert die kontinuierliche berufliche Weiterentwicklung.
MyPersonalChatbot
Effektive Kommunikation gilt als Eckpfeiler einer inklusiven Gesellschaft. In Deutschland sind mehr als 10 Millionen Menschen mit Kommunikationsbarrieren konfrontiert, die durch Lernschwierigkeiten, geistige Behinderungen, Sprachdefizite oder Alter bedingt sind. Dies führt häufig zur Verletzung von Grundrechten wie Meinungsfreiheit und Zugang zu Informationen. Das Projekt "MyPersonalChatbot" zielt darauf ab, diese Kommunikationsbarrieren durch die Entwicklung eines inklusiven Chatbots zu reduzieren. Dieser basiert auf moderner LLM-Technologie und soll den gleichberechtigten Zugang zu Informationen fördern und zur gesellschaftlichen Teilhabe und Selbstbestimmung beitragen. Ein partizipativer Prozess unter aktiver Beteiligung von Zielgruppen und Stakeholdern garantiert eine an realen Bedürfnissen orientierte Lösungsentwicklung. Die Gestaltung einer adaptiven Nutzungsoberfläche, die die Inhalte personalisiert aufbereitet und bild- und textbasierte KI kombiniert, ermöglicht eine umfassende Kommunikationsunterstützung. Die Zusammenarbeit mit den Projekten Bafög-Chatbot und EnterpriseGPT ermöglicht zudem Wissensaustausch, den Einsatz eines Benchmarking Systems, die Entwicklung und Nutzung einer gemeinsamen LLM-Technologie-Basis und einer anpassbaren Nutzungsoberfläche. Darüber hinaus wird durch die Synergie mit dem Projekt AWIEW der Informationsbedarf von Menschen mit Behinderungen im Kontext Arbeit adressiert, was den priorisierten Anwendungsfall für den Chatbot darstellt. My Personal Chatbot zeichnet sich durch die automatische Anpassung der Nutzeroberfläche und die personalisierte Kommunikation (z.B. Leichte Sprache) aus. Er dient als Demonstrator für das FIT, ermöglicht die Veröffentlichung von Forschungsergebnissen und fördert die Wiederverwendung von Erfahrungen im Institut. Letztendlich steht die Initiative für das Engagement, fortschrittliche KI-Technologie für die umfassende Verbreitung von Informationen zu nutzen und eine demokratischere und zugänglichere Welt durch Digitalisierung zu fördern – ganz unter dem Motto des Fraunhofer FIT: enabling. digital. spaces.
PEACH – Personalized Learning Chatbot empowered by Large Language Models and Knowledge Graph
Die Integration von künstlicher Intelligenz in die Bildung hat mit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT erhebliche Fortschritte gemacht. In Anerkennung ihres Potenzials, Bildungsmethoden zu verbessern, befassen wir uns im Projekt Personalized Learning Chatbot (PLEACH) mit der Herausforderung, dass LLMs Wissen »halluzinieren«, indem wir Wissensgraphen (Knowledge Graphs; KGs) einbeziehen, um die Genauigkeit und Zuverlässigkeit zu verbessern. Wir schlagen einen benutzerzentrierten Design-Ansatz (User-Centered Design; UCD) vor, der KGs, LLMs und UCD kombiniert, um personalisierte Tutoren zu entwickeln, die die Effektivität des Einzelunterrichts nachahmen. Es ist ein vielversprechender Ansatz, um die aktuellen Herausforderungen des KI-gesteuerten personalisierten Lernens, wie z. B. den Bedarf an dynamischen Bildungsressourcen, zu bewältigen. Neben dem eigentlichen Wissen schlägt PLEACH die Integration von Large Language Models (LLMs) wie GPT-4 und KG vor, um einen Chatbot zu erstellen, der die Lernerfahrung personalisiert, indem er neben dem eigentlichen Wissen, das durch Aktivitäten wie Nachhilfe und individuelle Prüfungsvorbereitung erworben wurde, auch die psychometrischen Profile der einzelnen Lernenden und ein nutzerzentriertes Design berücksichtigt. So können die Studenten z. B. auf Anfrage Feedback zu ihren Zusammenfassungen erhalten und sich mit dem System über relevante Themen für ihre Vorlesung abfragen. Die Nutzung eines KG, der auf multimodalen Daten wie Folien, Videos, Podcasts und Lehrbüchern basiert, richtet diese auf die spezifischen Kursziele aus. Das Tool wird in Zusammenarbeit mit der Universität Hohenheim entwickelt und seine Effektivität mit Studenten getestet, wobei die Effizienz und die kognitive Ausrichtung durch Bewertung und Iteration sichergestellt werden. Das Projekt zielt darauf ab, einen funktionsfähigen Chatbot-Prototyp zu liefern und einen Service für Unternehmen mit einer Vorlage zur Verbesserung ihrer Ausbildungs- oder Wissensmanagementprozesse anzubieten.
POWL – Partially Ordered Process Modeling with GPT
Das Projekt zielt darauf ab, die fortschrittlichen Fähigkeiten von LLMs mit der innovativen Partially Ordered Workflow Language (POWL) zu verschmelzen, um die Effizienz, das Verständnis und die Zugänglichkeit der Prozessmodellierung deutlich zu verbessern. Unsere Hauptmotivation liegt in der Herausforderung der Erstellung von Prozessmodellen, die umfangreiches Fachwissen und Expertise in den verwendeten Modellierungssprachen erfordert. Unser Ziel ist es, Prozessmodelle in Standardnotationen zu erstellen, die den meisten Fachleuten im Bereich des Geschäftsprozessmanagements vertraut sind, wie z. B. Business Process Model and Notation (BPMN) und Petri-Netze. Solche Modellierungssprachen sind jedoch komplex und bergen ein hohes Potenzial für Qualitätsprobleme. So ist es beispielsweise möglich, Petri-Netze oder BPMN-Modelle mit toten Teilen zu erzeugen, die nie erreicht werden können. Wir verwenden POWL für die Repräsentation von Zwischenprozessen, da POWL inhärent Solidität gewährleistet und die generierten POWL-Modelle anschließend in BPMN und Petri-Netze transformiert werden können. POWL erweitert partiell geordnete Graphen mit Kontrollflussoperatoren, um eine breitere Palette von Prozesskonstrukten zu unterstützen, und stellt eine neuartige Lösung für die Modellierung komplexer Prozesse dar. Die hierarchische und komplexe Natur von POWL-Modellen macht ihre Erstellung jedoch zu einer schwierigen Aufgabe, insbesondere für Benutzer ohne tiefes technisches Fachwissen. Unser Ziel ist es, die Fähigkeiten von GPT-4 zu nutzen, um die Erstellung und iterative Verfeinerung von POWL-Modellen ausgehend von textuellen Beschreibungen in natürlicher Sprache zu automatisieren. Die Initiative zielt darauf ab, die technischen Barrieren für Prozessanalysten zu senken und die Prozessmodellierung zugänglicher und intuitiver zu machen. Wir werden synthetische und reale Prozesse verwenden, um unseren Ansatz zu bewerten.
Prosumer GPT
Angesichts der ehrgeizigen Ziele der Europäischen Union und Deutschlands zur Reduzierung der CO2-Emissionen ist die Umwandlung von Verbrauchern in Prosumenten durch neue Technologien von entscheidender Bedeutung. Dieses Projekt, Prosumer GPT, befasst sich mit den Herausforderungen, vor denen Kunden stehen, wenn es darum geht, fundierte Investitionsentscheidungen für energieeffiziente Technologien zu treffen und diese Anlagen effektiv zu verwalten. Das Hauptziel ist es, Prosumenten bei der Entscheidungsfindung und dem effizienten Betrieb von Technologien wie Photovoltaikanlagen, Wärmepumpen und Speichersystemen durch ein innovatives Large Language Model (LLM) zu unterstützen. Dieses Tool soll als virtueller Berater fungieren, der sowohl in der Planungs- als auch in der Betriebsphase von Hausenergiemanagementsystemen (HEMS) behilflich ist. Im Rahmen des Projekts wird ein LLM als Benutzerschnittstelle entwickelt, das durch eine Python-basierte Berechnungsmaschine unterstützt wird. Dieser Ansatz konzentriert sich auf zwei Hauptaspekte: Unterstützung bei Energieinvestitionen und Gebäudesanierungen und Verbesserung der Benutzerfreundlichkeit von HEMS. Das LLM wird den Nutzern helfen, komplexe Modelle in Bezug auf Kosten, Einnahmen und CO2-Emissionen zu verstehen, und die Interaktion mit HEMS erleichtern, um verschiedene Energiemanagementszenarien zu untersuchen. Ethische und datenschutzrechtliche Überlegungen sind integraler Bestandteil, um die Sensibilität der Daten und die Einhaltung von Vorschriften zu gewährleisten. Die Methodik steht im Einklang mit den Zielen für nachhaltige Entwicklung der Vereinten Nationen und fördert erschwingliche, saubere Energie, nachhaltige Gemeinschaften und Klimaschutzmaßnahmen. Das Prosumer GPT-Projekt ist ein innovativer Ansatz zur Vereinfachung komplexer Energiemanagement- und Investitionsentscheidungen für Endverbraucher. Durch den Einsatz fortschrittlicher LLM-Technologie versucht das Projekt, komplexe Energiemodelle für die Allgemeinheit zugänglich und verständlich zu machen und so das Vertrauen und die Eigenverantwortung im Umgang mit Energieressourcen zu fördern. Darüber hinaus trägt es zu den globalen Bemühungen um Nachhaltigkeit und digitale Sicherheit bei. Zu den Ergebnissen des Projekts gehören eine benutzerfreundliche Schnittstelle, ein besseres Verständnis der Energiesysteme für die Verbraucher und ein Schritt hin zu nachhaltigeren Lebensweisen. Mit seinem umfassenden Plan zur Integration von LLM in Energiemanagementsysteme wird Prosumer GPT einem breiten Spektrum von Akteuren zugutekommen, von einzelnen Hausbesitzern bis hin zu großen Energieversorgern.