3.3.3 Bildungsbereich allgemein

Journalismus[]

Künstliche Intelligenz verfasst Zeitungsartikel, unterstützt Journalisten bei Recherche (Horn 2019, Link

Lernende Systeme[]

Die vom BMBF 2017 initiierte Plattform Lernende Systeme hat im Rahmen des Wissenschaftsjahres “Künstliche Intelligenz” 2019 eine Landkarte entwickelt, um KI-Technologien in Deutschland heute oder in naher Zukunft zum Einsatz kommen. Von insgesamt 719 dort gelisteten Projekten, sind 41 Projekte mit dem Label “Anwendungsmarkt Bildung“ versehen. Von diesen Projekten sind die folgenden 14 Projekte unserer Ansicht nach tatsächlich im engeren Sinne in pädagogischen Settings denkbar:

Für eine nutzerzentrierte Wissensvermittlung müssen Computersimulationen und digitale Lernspiele den Erfahrungs- und Wissensstand und die intrinsische Motivation der Nutzer berücksichtigen. Eine externe, adaptive Lernkomponente muss die Nutzer im sogenannten Flow-Kanal halten, ausbalanciert zwischen individuellen Herausforderungen und Fähigkeiten. Zur Realisierung werden Verfahren des maschinellen Lernens genutzt, etwa für eine maschinelle Erfassung und Analyse des Lernerzustands, für automatisches Szenenverstehen oder für die automatische Selektion und Erzeugung passender Inhalte. (Link)

Be-greifen, unter diesem Projektnamen entwickelt ein interdisziplinäres Team unter der Leitung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern neue Interaktionsmethoden, um das Studium in den sogenannten MINT-Fächern (Mathematik, Informatik, Naturwissenschaft und Technik) – im Projekt exemplarisch im Bereich Physik – praktischer zu gestalten. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Be-greifen kombiniert anfassbare, manipulierbare Objekte („Tangibles“) mit Technologien der erweiterten Realität („Augmented Reality“), um neue, intuitive Benutzerschnittstellen zu entwickeln. Durch interaktive Experimente soll es möglich werden, den Lernprozess im MINT-Studium aktiv zu unterstützen und den Lernenden theoretische Inhalte der Physik praktischer zu vermitteln. (Link)

Ziel des Projekts ist es, Smartphone bzw. Tablet als Eingabegerät für einen Roboter-Begleiter zu nutzen, und zwar sowohl Rechenleistung als auch Sensorik des mobilen Geräts, um ein komplexes, modulares System steuern zu können. Der Roboter soll durch Erkennen von Stimme, Gesicht und Gesten sowie von Objekten in der Umgebung intelligent mit dem Nutzer interagieren. Das bestehende Roboter-System wird um Fähigkeiten der Künstlichen Intelligenz erweitert, durch Verfahren des maschinellen Lernens, der Objekterkennung sowie der Bildverarbeitung. (Link)

TH Deggendorf forscht an Blended Learning 4.0. In der Reflexionsphase des Lernprozesses bauen wir ein Learning Analytics Cockpit auf. Dafür lassen wir ein Neuronales Netz (verwendet wird Tensorflow mit Backpropagation) (NN) aus den Klickdaten und den erreichten Punkten in den Kontrollfragen der Kurse (der ersten zwei Monate eines Semesters) sowie das Bestehen/Nichtbestehen (Klassifikation) bzw. die erreichten Punkte (Regression) in der Klausur lernen. Dann testeten wir die gelernten NN bei der nächsten Kursdurchführung und erreichten eine Prognosegenauigkeit von 76%-88% bei der Klassifikation und eine Streuung von 14 Punkten bei max. zu erreichenden 90 Punkten bei Regression. Bisher lernten wir mit NN für drei Kurse und konnten in Simulationen die Auswirkungen des Cockpit-Einsatzes testen, indem wir basierend auf den Prognosen der NN Warn-Emails an als gefährdet eingestufte Studierende verschickten. Dadurch konnten die Durchfallquote und die Nichtantrittszahl nahezu halbiert werden. (Link)

Im EVA Projekt werden typische Konversationsmuster in politischen Debatten untersucht. Hierzu gehören der Inhalt und die Struktur von Argumenten, aber auch wie sie einem Publikum kommuniziert werden. Zu diesem Zweck werden argumentative Dialoge zwischen Menschen durch virtuelle Agenten simuliert. Als Anwendungsdomäne fokussiert das Projekt auf politischen Diskurs. Da politische Debatten enormen Einfluss auf die Meinungsbildung und Einstellung der Allgemeinheit haben, sind Techniken zur Unterstützung von Entscheidungsprozessen von enormer gesellschaftlicher Relevanz. Der Einsatz von virtuellen Agenten führt zu einer neuartigen Form der audio-visuellen Präsentation, die bisher im Bereich Argumentation Mining wenig erforscht wurde. Virtuelle Agenten erlauben es uns, Argumente auf intuitive Art und Weise zu präsentieren und die Wirkung von rationalen und nicht-rationalen Elementen zu verdeutlichen. (Link)

Humanoide Roboter ergänzen die Arbeit von Dozentinnen und Dozenten in Seminarräumen und Büros: Sie helfen im Kurs mit fachlichen Inhalten und beraten Studierende in Sprechstunden. Die Dozentinnen und Dozenten finden mehr Zeit für gemeinsame Übungen mit Studierenden. Die Roboter können perspektivisch in allen Phasen des Lehr- und Lernprozesses aushelfen. Das Projekt H.E.A.R.T. untersucht den Einsatz von Robotern in der Hochschule, um Lehrende unterstützen und Studierende noch individueller betreuen zu können. (Link)

In einer neuen Laborumgebung im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern werden – in Kooperation mit Schulen, Hochschulen und Unternehmen – Technologien für neue Lehr- und Lernmethoden entwickelt und erprobt. Das gemeinsam von der Technischen Universität Kaiserslautern (TUK) und dem DFKI betriebene „Immersive Quantified Learning Lab“ (iQL) versteht sich als Ideen- und Prototypen-Werkstatt für das Lernen der Zukunft und verknüpft Mensch und Computer zu einer intelligenten Kreativplattform. iQL gibt einen Einblick in die neusten Sensor-Technologien wie elektro-okulare Brillen, elektro-dermale Armbänder, Eye-Tracker oder Augmented-Reality-Brillen und wie diese in Lern- und Arbeitsszenarien verwendet werden können, um den kognitiven Zustand von Versuchspersonen zu messen und um Bedingungen zu schaffen, die die kognitive Belastung verringern und die Effizienz erhöhen. (Link)

Ziel des Projekts INTUITEL ist es, klassische Learning Management Systeme (LMS) mit einigen Eigenschaften und Fähigkeiten eines menschlichen Tutors auszustatten. Um einen ganzheitlichen Blick auf die jeweilige Lernsituation zu erhalten, werden die bereits in LMS vorhandenen Daten über die Lernenden und den Lernstoff mit zusätzlichen Informationen angereichert. Dazu zählen Daten zum aktuell genutzten Computer, das aktuelle Lernumfeld und vor allem auch allgemeine und themenspezifische pädagogische Modelle. Daraus generiert der intelligente Tutor für jeden einzelnen Lernenden individuelle Lernempfehlungen, die ihn optimal durch den Lernstoff führen. (Link)

Der KIT Lecture Translator ist ein System zur simultanen, automatischen Übersetzung von Vorlesungen und Vorträgen, inkl. Archivfunktion, die es erlaubt, Vorlesungsaufzeichnungen an Hand des Gesprochenen und Folieninhalts multilingual zu durchsuchen. Transkription und Übersetzung kann in Echtzeit mit einer Latenz 1,5 Sekunden auf einer Webseite von den Zuhörern auf beliebigen, tragbaren Geräten mit Webbrowsern verfolgt werden. Das System lernt dabei seine Modelle aus Daten und kann anhand kleiner Datenmengen fortlaufend auf neue Domänen und Themen adaptiert werden. (Link)

Das Ziel von MoCaB – Mobile Care Backup – ist die Unterstützung von pflegenden Angehörigen durch einen mobilen Assistenten. Durch eine individuelle und persönliche Hilfe in pflegefachlichen Fragen und durch psychosoziale Unterstützung in Form eines mobilen Assistenten sollen Krisen vermieden bzw. erkannt und zeitnah Bewältigungsmöglichkeiten angeboten werden. Im Mittelpunkt des Projektes steht die Entwicklung eines mobilen Assistenzsystems, das pflegende Angehörige dabei unterstützt, die Tagesstruktur der Pflege zu organisieren, das ihnen situationsbezogen pflegerisches Wissen bereitstellt und das ihnen Angebote zur Stärkung der eigenen körperlichen und seelischen Gesundheit anzeigt. Hierzu wird eine wissensbasierte Infrastruktur - die MoCaB-Welt - entwickelt, in der ein mobiler Agent intelligent agieren kann. Sensoren erfassen relevante Daten aus dem Alltag, sodass Situationen erkannt werden und das MoCaB System Hilfestellungen geben kann. Auch die Situation des Pflegebedürftigen kann so im Blick behalten werden. Die Berücksichtigung von Datenschutzaspekten bildet einen integralen Bestandteil des Projekts. (Link)

Im Forschungsfeld Kognitive Systeme (CogSys) beschäftigen wir uns mit der Entwicklung von Ansätzen, Konzepten und Methoden zu Entwurf, Charakterisierung, Implementation und Analyse von Systemen der Künstlichen Intelligenz, die auf kognitiven Prinzipien basieren. Zum einen nutzen wir Erkenntnisse aus kognitiven Prozesse als Anregung zur Entwicklung künstlicher (psychonischer) Systeme. Zum anderen entwickeln wir Computationale Modelle von kognitiven Phänomenen -- also Kognitive Systeme -- die eine partnerschaftliche Interaktion von Mensch und Computer ermöglichen. In unserer Forschung kombinieren wir empirische Studien, die Entwicklung von intelligenten Algorithmen und das Testen in verschiedenen Anwendungsbereichen. Hauptthemen sind Induktion und Lernen sowie deren Kombination mit Ansätzen des Analogen Schließens, Planens und Problemlösens. Schwerpunkt ist Induktive Programmierung, also die induktive Synthese von (rekursiven) funktionalen oder logischen Programmen auf Basis unvollständiger Spezifikationen, insbesondere Beispielen. Die von uns entwickelten Ansätze erlauben das Lernen komplexer, nachvollziehbarer Regeln aus wenigen Daten. Seit mehr als fünfzehn Jahren forschen wir zum Thema verständliche und erklärbare künstliche Intelligenz. Hier entwickeln wir white-box Ansätze des maschinellen Lernens, bei denen Lernen mit wissensbasierten Ansätzen kombiniert werden kann. Zudem entwickeln wir Methoden zur Erzeugung von verbalen und visuellen Erklärungen von gelernten Klassifikatoren, insbesondere für Blackbox Ansätze zur Bildklassifikation. Aktuelle Anwendungen sind Entscheidungsunterstützung bei bilddatenbasierten medizinischen Diagnosen (BMBF Projekt TraMeExCo), Identifikation irrelevanter digitaler Objekte (DFG Projekt Dare2Del), Mimikanalyse, inbesondere Schmerzklassifikation (DFG Projekt PainFaceReader), Qualitätskontrolle in verschiedenen Anwendungen, insbesondere bei Nutzplanzen (Kooperation mit Fraunhofer IIS) sowie kognitive Tutorsysteme.

Was empfinden Menschen, wenn sie einen Werbespot sehen? Wie reagieren sie auf einzelne Szenen oder Botschaften? Lange Zeit war es für Marktforscherinnen und -forscher keine einfache Aufgabe, dies wissenschaftlich zu entschlüsseln. Eine innovative Software, entwickelt von der Gesellschaft für Konsumforschung (GfK), eröffnet mithilfe des Maschinellen Lernens neue Möglichkeiten, um das Kaufverhalten von Konsumenten besser zu verstehen.

Der QuizCo AI-Content-Prozessor kann selbständig Fragen aus unterschiedlichen Texten generieren. Zum einen gibt es die Möglichkeit, Fragen aus hochgeladenen Texten von Nutzern zu generieren. Zum anderen ist geplant, durch Maschinelles Lernen die hoch frequentiert nachgefragten Suchbegriffe vollautomatisch bzw. eigenständig zu erkennen, aus qualitativ hochwertigen, öffentlich verfügbaren Texten zu generieren und den Usern in der QuizCo-Cloud zur Verfügung zu stellen. Durch das QuizCo AI-Matching wird es den Nutzern ermöglicht, automatisch hilfreiche und dem Lernstand angepasste Lernsets vorgeschlagen zu bekommen, die z.B. anderen Nutzern bei ähnlichen Schwierigkeiten geholfen haben.

Ziel der Anwendung ist es Themen des Schulunterrichts mit dem tagesaktuellen Geschehen außerhalb der Schule zu verbinden. Unterrichtsmaterialien benötigen entweder einen langen inhaltlichen Aufbereitungsprozess oder sind inhaltlich schlecht nachvollziehbar mit der schulischen Fachdidaktik verknüpft (OER). Mit KI Methoden und didaktisch-struktureller Expertise werden durch Schulkontext.de inhaltliche Verknüpfungen beliebiger Themen zu didaktischen Grundlagen der einzelnen Fächer erzeugt. Die Aktualität der Themen soll Lehrkräften helfen, ihre Berechtigung gegenüber dem anscheinend umfassend informierenden Smartphone der Schüler*innen zurückzugewinnen und damit eine zeitgemäße Rolle in der Schulbildung einzunehmen. Dafür werden auf Basis des o.g. erschaffenen Verknüpfungs-Services neue Produkte entwickelt. (Link)

Mittels textbasierten Analysen und verschiedenen NLP-Algorithmen werden Roman-Manuskripte durch eine Software automatisch gescannt und ihre literarischen Charakteristika wie Thematik, Spannungsbogen, Sprachstil, Hauptfiguren etc. offengelegt. Für Verlage ergibt sich damit bereits nach nur 60 Sekunden ein Überblick über das literarische Setup und eine mögliche Übereinstimmung mit der Verlags-Strategie. Autoren bietet die Software eine objektive Einschätzung, Charakterisierung und Verortung des Werks im jeweiligen literarischen Genre. Darüber hinaus münden alle literarischen Merkmale in eine abschließende prädiktive Bewertung hinsichtlich des wahrscheinlichen Erfolgs des Werks bei der jeweils anvisierten Zielgruppe. Dies ist der sogenannte "Bestseller-Score". (Link)