Im Wissenschaftsjahr 2019 Künstliche Intelligenz kommt kaum eine Veranstaltung am Thema KI vorbei. So standen auch beim 4. DGI-Forum Wittenberg vom 16. bis 18. September Digitalisierung, Informationskompetenz (IK) und Künstliche Intelligenz (KI) auf der Agenda, und zwar mit dem Fokus auf Bildungsforschung und -praxis. Das Treffen unter dem Motto „KI macht Schule“ in der „kleinsten Großstadt Deutschlands“, wie Oberbürgermeister Torsten Zugehör in seinem Grußwort zur Eröffnung die Lutherstadt charakterisierte, fand erneut im historischen Universitätsgebäude Leucorea statt, wo das Tagen und Wohnen unter einem Dach den intensiven Gedanken- und Meinungsaustausch zwischen den Teilnehmerinnen und Teilnehmern gewährleistet. Zum vielfältigen Programm trugen u. a. Bildungsforscher, Sprachwissenschaftler, Psychologen, Informatiker, Informationswissenschaftler und Politiker bei. Waren es beim letzten DGI-Forum 2017 die Coffee Lectures, die Abwechslung in das Vortragsprogramm brachten, so wurde die Abfolge aus Projektpräsentationen und Fachvorträgen dieses Mal durch ein KI-Quiz, einen Workshop und eine Open-Table-Runde aufgelockert. Beim Stadtrundgang am ersten Abend und der anschließenden Einkehr begannen in lockerer Runde beim gegenseitigen Kennenlernen bereits die ersten fachlichen Gespräche.
Gegen die Automation des Entscheidens durch KI
Für die beiden Veranstalter DGI und Germanistisches Institut der Martin-Luther-Universität Halle-Wittenberg (MLU) eröffneten Marlies Ockenfeld und Matthias Ballod die Tagung mit einer Rahmensetzung zu Anwendungsfeldern von KI im Bildungswesen. Wissensaneignung und Lernen finden ständig statt, organisiert oder beiläufig. Digitalisierte Inhalte und Prozesse spielen dabei zwar zunehmend eine Rolle, doch das Lernen in Schule, Beruf und Freizeit muss auch in sozialen Zusammenhängen erfolgen, wenn nicht nur Wissen erlangt, sondern auch Bildung und Persönlichkeitsentwicklung erreicht werden sollen. Nützliche Dienste können KI-gestützte Systeme mittelfristig vermutlich in der Organisation von Bildungseinrichtungen leisten, etwa bei Raumplanung, Stundenplan oder Einsatzplanung. Gesichtserkennungssysteme zur Anwesenheitskontrolle oder zur Identitätsprüfung bei Klausuren dürften hierzulande derzeit noch auf geringe Akzeptanz stoßen.
Stefan Holtel, Kurator für digitalen Wandel bei PricewaterhouseCoopers, sprach sich in seinem Eröffnungsvortrag dafür aus, Problemlösungen im Sinne von Effectuation anzupacken, also nicht wie KI-Systeme Prognosen auf Daten und Erfahrungen der Vergangenheit zu gründen, sondern die verfügbaren Ressourcen zu nutzen und Denken und Handeln unter Ungewissheit als Chance für neue Lösungen zu begreifen: Agieren statt Vorhersagen. Als Protagonisten verwies er auf Alan Musk, der mehrfach Unternehmen gegründet hat, um neuartige technologische Lösungen auszuprobieren, und dabei immer wieder die eigene Haut riskierte. Der als Coach tätige Unternehmensberater („Als Coach braucht man keine Ahnung von Inhalten, nur zum Prozess“) plädierte dafür eine Haltung zur Digitalisierung zu entwickeln. Nicht die technische Infrastruktur sollte den Rahmen für Ausbildungs- und Lehrpläne bilden, stattdessen könnten DigiScouts die Lernenden beim systematischen Erreichen von Zielen unterstützen. Digitale Fähigkeiten erlaubten zu verstehen, was wiederkehrende Muster sind. Gebraucht würden Instrumente, mit denen man nicht „im Detail herumkramt, sondern Zusammenhänge erkennt“. Schlüsselfaktor blieben auch in Zeiten der Digitalisierung mentale Fähigkeiten. Eine Metakompetenz, die man jetzt brauche, sei es, ständig aus der Blase herauszuspringen.
Versteckte Botschaften
Eine KI-basierte Anwendung aus dem Bereich der Sprachwissenschaft präsentierte Matthias Hagen von der MLU Halle-Wittenberg. Mit Hilfe kombinierter Methoden der Computerlinguistik, der Heuristischen Suche und des Maschinellen Lernens lassen sich Botschaften in unverdächtigen Texten unterbringen, indem die ersten Buchstaben der Textzeilen von oben nach unten gelesen – wie zufällig – eine zweite Aussage ergeben und sich der Autor als nicht verantwortlich herausreden kann. Man nennt eine solche in den Zeilenanfängen verborgene Botschaft ein Akrostichon. Das automatische Textparaphrasieren, also die sinnerhaltende Umformulierung eines von Menschen geschriebenen Textes, so dass der algorithmisch erzeugte Ergebnistext bestimmte vorgegebene Eigenschaften besitzt, lässt sich aber auch zur Verschleierung von Autorenschaften oder von wiederverwendeten Texten (vulgo Plagiaten) einsetzen, indem typische Ausdruckweisen automatisiert durch anderslautende, aber inhaltlich gleichartige ausgetauscht werden. Aber auch die Textvereinfachung zur besseren Verständlichkeit oder die Erhöhung der Hörverständlichkeit durch Anpassung von Nachrichtentexten zum Vorlesen durch Menschen oder für sprachbasierte maschinelle Dialogsysteme (Sprachassistenten) sind auf diese Weise möglich. Notwendig für die aufwendige und in erstaunlicher Geschwindigkeit erfolgende maschinell Paraphrasierung sind eine ganze Reihe linguistischer Korpora, Wörterbücher und Regelsysteme. Dazu gehören die Paraphrase Database PPDB mit 169 Millionen linguistischen Paraphrasierungsregeln, Netspeak mit 3,5 Milliarden Wort-2- bis -5-Grammen mit Angabe ihrer Häufigkeiten und einer Gebräuchlichkeitsprüfung im Kontext, WordNet als Quelle für Synonyme, die TEX-Silbentrennung sowie Listen mit Tausenden von häufigen Tippfehlern und Akronymen.
Einfallsschneise Mathematik
Skeptisch äußerte sich Jörn Loviscach von der Fachochschule Bielefeld zum Lehren und Lernen im Zeitalter der Digitalisierung. Er beobachtet und befürchtet Anzeichen eines „Solutionismus“, bei dem schlicht das, was verdatet werden kann, ausgewertet und zur Steuerung von Lernprozessen genutzt würde. Dabei werde häufig übersehen, dass die Maschine die Vorurteile der realen Welt lerne und in ihre Entscheidungen einbeziehe. Es werde mit technischen Lösungen auf Probleme „eingedroschen“, anstatt die Probleme selbst zu analysieren und passende Lösungen zu erarbeiten. Zentral sei es, die Motivation der Lernenden zu wecken, damit die sich tief in ein Thema einarbeiten, anstatt lediglich über das Internet MOOCs oder Videos zu rezipieren, die ihnen kurzfristig den Lösungsweg einer gestellten Aufgabe zeigten. Social Media dienten bewusst dem „Anfixen“, sie förderten nicht die Wissbegier. Die Schüler und Studenten dürften nicht mit Technik abgespeist werden, sondern es müsse der Wunsch in ihnen geweckt werden, wirklich etwas zu verstehen (need for cognition). Steil die provokante These des Professors für Ingenieurmathematik und technische Informatik, dass Mathematik die erhoffte Einfallsschneise sei, um Digitalisierung in die Schulen zu bringen, obgleich kaum jemand in seinem Leben Mathematikkenntnisse brauche, die über das Lösen einer quadratischen Gleichung hinausgehen.
Angepasste Mädchen und mundfaule Jungs
Fabian Zehner vom DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation betonte, dass derzeit zwar Methoden aus der KI-Forschung wie Maschinelles Lernen, Sprachverarbeitung und Sensorik ihre Potenziale für spezifische Aufgaben im Bildungssektor beweisen, und zwar vor allem für individuelles Lernen oder Prüfen im großen Umfang sowie bei der Bereitstellung von neuen Informationsquellen für die Bildungsforschung. Es handele sich aber allenfalls um schwache KI, und das werde wohl so lange so bleiben, bis wir wissen, was Bewusstsein ist und wie wir das in Software umsetzen können. Zu den Anwendungen im Bildungsbereich, die mittels Techniken der natürlichen Sprachverarbeitung Lehrende und Lernende unterstützen können, gehört z. B. AutoTutor. Diese intelligente tutorielle Software, die natürliche Sprache verarbeiten kann, verfügt über mehrere tutorielle Strategien. Sie vergleicht zu erwartende richtige sowie falsche Begriffe mit Äußerungen der Lernenden, erkennt Fragen, Feststellungen, meta-kognitive Äußerungen („keine Ahnung“) und Kurzantworten und versucht über mehrere Dialogschritte zur korrekten Antwort zu leiten. Hierzu erfolgen negative, neutrale und positive Rückmeldungen sowohl verbal als auch mimisch.
Anhand der Software ReCo (Automatic Text Response Coder) demonstrierte Zehner schrittweise wie die Auswertung von Kurztextantworten der viertausend deutschen 15-Jährigen in PISA-Tests erfolgte und zeigte so die Effizienz der Methoden für eine ganz spezifische Anwendung. Die Antworten werden mit computerlinguistischen Verfahren semantisch ausgewertet und nach einer Vielzahl von Dimensionen automatisch geclustert. Die Auswertung ergab so z. B. Unterschiede zwischen prototypischen Jungen- und Mädchenantworten: prototypische Jungenantworten sind sparsamer und weniger relevant, prototypische Mädchenantworten besser an die Fragestellung angepasst.
Wissenschafts-Comic aus Halle
Wie lässt sich mit linguistischen Verfahren aus einem Text eine Wissenslandkarte extrahieren, die das Wissen des Verfassers im betreffenden Fachgebiet repräsentiert? Und was lässt sich dann mit den Wissenslandkarten anstellen, um Studienergebnisse zu beurteilen, Lernunterstützung zu bieten, den Lehrerfolg zu messen? Wie lässt sich eine Landkarte des Wissens, das nach der Teilnahme an einer akademischen Lehrveranstaltung beherrscht werden sollte, erzeugen? Die komplizierten Vorgänge der semantischen Wissensmodellierung mit dem validierten Textanalyseprogramm T-MITOCAR (Text-Model Inspection Trace of Concepts and Relations) sowie seiner Erweiterung Artemis, mit der Wissenskarten ganzer Textkorpora zu einer Wissensdomänenlandkarte aggregiert werden können, veranschaulichte Inga Kampmann aus dem Arbeitsbereich Pädagogische Psychologie der MLU mit selbst gezeichneten Comics. Bei der computerlinguistischen Analyse mittels T-MITOCAR wird natürliche Sprache analysiert, graphentheoretisch aufbereitet und als Landkarte des Wissens so bereitgestellt, dass Menschen auf natürliche Weise damit interagieren können.
So lassen sich mit Hilfe digitaler Technologien Lernprozesse Studierender an der MLU technologiegestützt und individuell begleiten, selbst verfasste Texte Studierender der Bildungswissenschaften mit einer professionellen aktuellen „Wissensdomäne der Bildungswissenschaft“ vergleichen und automatisches Feedback zum Schreibprozess geben. Inhaltliche und strukturelle Vergleiche zwischen Texten von Novizen und Experten, zwischen Texten unterschiedlicher Personen oder auch zwischen Texten derselben Person zu unterschiedlichen Zeitpunkten sind ebenfalls möglich.
Digital kompetent durch Fremdsprachenunterricht
Olivetta Gentilin unterrichtet Deutsch als Fremdsprache in der gymnasialen Oberstufe einer italienischen Schule. Dort verbindet sie im Unterrichtsalltag das geisteswissenschaftliche Fach Deutsch, in dem Effi Briest Pflichtlektüre ist, mit aus den MINT-Fächern stammenden computergestützten Verfahren der Textanalyse. Sie folgt damit der u. a. von der Europäischen Kommission geäußerten Forderung nach der Vermittlung digitaler Kompetenz in allen Schulfächern. Das Interagieren mit digitalen Medien fördert Flexibilität und Selbständigkeit beim Lernen und macht den Kindern Spaß. Eingesetzt wird das Softwarepaket Voyant Tools, mit dem zunächst für einzelne Kapitel des Romans Wordwolken erzeugt werden, die anschließend im Klassenverband vergleichend analysiert werden. Später werden die Beziehungen zwischen Mutter und Tochter analysiert, Wortbäume und Frequenzdiagramme angefertigt und daraus in Gruppengesprächen Schlussfolgerungen gezogen.
Olivetta Gentilin zeigte, dass Sprachlernende durch die Arbeit mit digitalen Methoden außer linguistischen auch visuelle Kompetenzen (Visual Literacy) sowie die Fähigkeit, Gedanken oder Argumentationen zielgerecht auszudrücken (Personal Literacy), Informationen zu interpretieren und zu evaluieren (Information Literacy) und schließlich Interaktionsfähigkeiten im persönlichen Austausch innerhalb der Lerngruppe und in Präsentationen vor der Klasse lernen.
KI als minimaler Mensch
Wie menschlich dürfen oder müssen Softwaresysteme oder Roboter wirken, um von Menschen akzeptiert zu werden? Diese Frage erörterte Jürgen Buder vom Leibniz-Institut für Wissensmedien Tübingen. Die derzeitigen Systeme verwenden entweder vorgegebene Regeln – und können diese dann meist effizienter als Menschen anwenden – oder sie haben durch deep learning selbst Regeln aufgestellt, nach denen sie ihre Entscheidungen treffen. Diese bergen zum einen die in den ausgewerteten Daten vorhandenen Vorurteile ab und sind zum anderen undurchschaubar und vom System nicht erklärbar. Sie haben zudem Schwächen beim Alltagsverständnis und folgerichtig bei der Reaktion auf neue Situationen.
Forschungsergebnisse zeigen, dass Lernleistungen unter Einsatz von computergestützten Systemen umso besser sind, je menschenähnlicher der Lernassistent aussieht, dass das Lob von einem Agenten stärker motiviert als ein Lob in Textform und dass eine menschliche Stimme besonders stark wirkt. Eine KI muss nicht viel können, um wie ein Mensch behandelt zu werden, denn Menschen reagieren auf minimale soziale Reize. Auf physikalischer Ebene reichen Blickbewegungen und Stimme eines Agenten oder Roboters, um als menschenähnlich empfunden zu werden. Auf psychologischer Ebene spielen die Intensität der Interaktivität mit dem System eine Rolle, ebenso die Unvorhersagbarkeit der Reaktion des Systems und die Personalisierung. Ob wir wirklich wollen, dass wir eine KI als minimalen Menschen wahrnehmen, oder uns lieber sowohl auf physikalischer wie auf psychologischer Ebene stets deutlich bewusst bleiben wollen, dass wir es mit einer Maschine zu tun haben, ist auf alle Fälle eine Diskussion wert.
Auswertung der Umfrage zur KI
Matthias Ballod stellte erstmals die Ergebnisse der Online-Umfrage „Künstliche Intelligenz – was kann sie für die Bildung leisten?“ vor, die im Vorfeld des DGI-Forums Wittenberg von April bis August 2019 über die Tagungs-Homepage erreichbar war. Sie umfasste zehn Fragen und war 320mal ausgefüllt worden. Wenn auch die Stichprobe nicht repräsentativ war, so zeichnet sie doch ein differenziertes Stimmungsbild. Die meisten Teilnehmer stehen der KI offen oder sehr offen gegenüber, sind an ihrer Entwicklung interessiert und schätzen die Potenziale hoch oder sehr hoch ein. Auf die vier offenen Fragen zum Nutzen, den Gefahren, dem konkreten Bedarf sowie den drängenden Fragen zu KI im Bildungssektor gab es erfreulich viele aussagekräftige Antworten. Da ein ausführlicher Bericht über die Umfrage-Ergebnisse in der nächsten IWP erscheinen wird, sollen hier nur zwei exemplarische Antworten wiedergegeben werden: „Software ist aber kein Ersatz für Kompetenz, Leidenschaft, Fleiß und Interesse bei Lehrern und Schülern.“ sowie „Die Verantwortung für das Lernen liegt immer bei den Menschen, den Lehrenden und Lernenden – ob mit oder ohne KI.“
Quiz Live
Für unterhaltsame und lehrreiche Abwechslung sorgte Jutta Bertram von der Hochschule Hannover zweimal mit einem von ihr erdachten und durchgeführten Quiz mit Fragen zur KI-Geschichte, zu maßgeblichen KI-Pionieren, mehr oder weniger bekannten Robotern sowie mit Schätzfragen zu den Ergebnissen von Umfragen. Zwei Team traten jeweils in den Wettstreit, aber auch im Auditorium konnte jeder für sich mit raten und bei der Auflösung von der Quizmasterin etwas lernen, z. B. dass das 2015 in Tokio eröffnete weltweit erste Roboterhotel einen Teil der Roboter bald wieder abschaffte, weil sie ihren menschlichen Kolleginnen und Kollegen mehr Arbeit machten, anstatt sie zu entlasten, und schnarchende Gäste mit einem höflichen „Ich habe sie leider nicht verstanden“ weckten. Dass das Quiz als Lehr- und Lernformat gut funktioniert, ob analog oder digital, wurde so noch einmal offensichtlich.
Projekte
Joachim Griesbaum von der Universität Hildesheim stellte das multidisziplinäres Projekt „Zukunftsdiskurse – Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung“ vor, bei dem es darum geht, die Informationskompetenz der Bürger vor dem Hintergrund der Digitalisierung öffentlich zu diskutieren, Lösungsansätze zu eruieren, z. B. Orientierungsfähigkeit in Wissensräumen, Such- und Bewertungskompetenzen oder Mediendisziplin, sowie Akteursgruppen zusammenzubringen. (Lehrende, Lernende, Bürger; Fachwelt). Für November 2019 bis Mai 2020 ist ein Online-Diskurs geplant, die Abschlussveranstaltung findet voraussichtlich am 1. und 2. Juni 2020 statt.
Bettina Gierke vom FID Buch-, Bibliotheks- und Informationswissenschaft erläuterteden Entwicklungsstand des Fachinformationsdienstes und gab einen kurzen Einblick in den Katalog (https://katalog.fid-bbi.de/). Bisher werden schwerpunktmäßig eBooks gekauft, ansonsten konzentriert sich der FID derzeit auf Open-Access-Publikationen, weil bisher keine Lizenzen erworben worden sind. Über den FID ist angeblich der unentgeltliche Zugriff auf aktuelle Zeitschriftenausgaben wie z. B. der IWP uneingeschränkt möglich. Für die Digitalisierung einzelner Publikationen stehen begrenzte Mittel zur Verfügung. Vertreter der Informationswissenschaft im Beirat des FID ist derzeit Jürgen Neher.
Sue-Ann Bäsler und Felix Sasaki vom Cornelsen Verlag, der auf dem Weg zu einem „datengetriebenen Unternehmen“ ist, erörterten die Bedeutung von KI in diesem Transformationsprozess und erklärten, was für sie in diesem Zusammenhang adaptive Produktgestaltung mittels KI heißt. Aus Sicht der Prozesse unterschieden sie symbolische KI (z. B. die Erarbeitung einer Klassifikation und von Klassifizierungsregeln durch Menschen) von datengetriebener KI, bei der Muster in großen Datenmengen durch maschinelles Lernen erkannt werden. Die Herausforderungen für einen Verlag für Bildungsmedien sind vielfältig. Lernende erwarten, dass sie unter Beachtung des Datenschutzes individuell bedient werden, Lehrkräfte werden zunehmend das Lernen begleiten, anstatt Lehrinhalte zu vermitteln, selbst reguliertes Lernen gewinnt an Bedeutung, die gewohnten Buchstrukturen lösen sich zugunsten kleiner Lernhäppchen (Learning Nuggets) auf, die adaptiv genutzt werden können. Ziel ist der Aufbau einer Lernplattform, auf der es unterschiedliche Lehr- und Lernangebote gibt, von Lernkarteisystemen und Sprachlern-Apps mit Vokabellisten und regelbasierten Wiederholungsübungen bis hin zu Plattformen für kuratierte Lerninhalte sowie adaptive Lernplattformen mit intelligenten tutoriellen Komponenten , die sich an den individuellen aktuellen Lernbedarf anpassen. Zu ausgewählten Lehrwerken sind auch Augmented Reality-Erweiterungen und Simulationen denkbar, außerdem könnte die Diagnose von Lernschwierigkeiten angeboten werden. Wie Studien gezeigt haben, sind die Lehrkräfte einerseits offen gegenüber solchen neuen KI-gestützten Bildungsmedien, andererseits aber auch skeptisch. Erwartet werde, dass die Begeisterung der Schüler auf die Lehrer überspringt. Die Rahmenpläne enthalten genügend Freiraum, um neue Methoden auszuprobieren, allerdings wäre aus Verlagssicht eine größere Standardisierung wünschenswert.
Julian Hocker vom DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation zeigte anhand verschiedener Projekte die Möglichkeiten von Semantic Web-Technologien in Verbindung mit Wiki-Technologien im Bereich der Bildungsforschung auf. So wurde das Semantic MediaWiki als virtuelle Forschungsumgebung zur Auswertung deutscher Abituraufsätze von 1882 bis 1972 eingesetzt oder für die Bereitstellung und Kommentierung einer digitalisierten Fassung des „Schulbuch für Kinder“ von F.J. Bertuch aus dem 18. Jahrhundert, das 45.000 Seiten mit 19.000 Bildern umfasst. Hierbei können interessierte Laien mitwirken (Citizen Science) und die einzelnen Bilder verlinken, indexieren oder kommentieren. Einige Aufgaben sind vorgegeben, man kann aber auch eigene Forschungsfragen bearbeiten (https://interlinking.bbf.dipf.de).
Werner Povoden Leiter des AKI RP/Eifel stellte die App CSP-MEDI-Plan vor, die derzeit im Unterschied zu den unzähligen Gesundheits-Apps, die weltweit im Umlauf sind, das Zulassungsverfahren als registriertes Medizinprodukt durchläuft. Der Medikationsplan ist in Bezug auf den funktionalen Umfang nicht nur eine Informations-App, sondern auch (lt. § 20 SGB V) eine Präventions-App für pharmazeutische Betreuung und für die chronischen Krankheiten Bluthochdruck und Adipositas. Es sind eine Reihe von Informationsquellen eingebunden, die es ermöglichen, dass Algorithmen beim Einlesen des Medikationsplans oder eines neu verschriebenen Präparats unmittelbar Wechselwirkungen zwischen Wirkstoffen in den Medikamenten markieren. Die App enthält außerdem ein interaktives Blutdrucktagebuch und unterstützt mit den bereitgestellten Informationen, wie etwa dem zeitlichen Verlauf der Medikamentenwirkung, sowohl Patienten als auch die behandelnden Ärzte oder das Pflegepersonal. Die App wurde in enger Zusammenarbeit mit Patienten entwickelt und soll um weitere Funktionen wie eine Körperstrukturanalyse erweitert werden. Sie ist für 24,99 Euro im Jahr nutzbar.
Nachrichtenquellen
„Wer entscheidet, welche Nachrichten mich interessieren?“ lautete die Frage, mit der sich die Tagungsgäste am Nachmittag des zweiten Tages in Arbeitsgruppen auseinandersetzen mussten. Unter der Leitung von Bernhard Franke vom Projekt D-3 Deutsch Didaktik Digital der MLU konnten die Teilnehmer auf bereit gestellten iPads eine Reihe von Nachrichten-Apps und Newsdienste nutzen, sich anschließend in ihrer Gruppe über die Ergebnisse austauschen und ihren Ersteindruck über Funktionsweise und Probleme der Nachrichtenaggregatoren mit einem Padlet festhalten. Den Konflikt zwischen Chronologie und Relevanz bei der Anzeige von Nachrichten erläuterte Bernhard Franke am Beispiel Facebook in einer eingeschobenen Präsentation. Anschließend wurden aus der Sicht unterschiedlicher Interessen- und Berufsgruppen Kriterienkataloge für die Beurteilung der Relevanz von Nachrichten erarbeitet und im Plenum vorgestellt.
Passend zum Thema geprüfte Qualitätsinformationen aus verlässlichen Quellen stellte Petra Wagner am folgen Tag GENIOS SCHULE vor, eine Rechercheplattform speziell für den Einsatz an Schulen, die für einen Jahresbeitrag von knapp tausend Euro Zugriff auf ausgewählte Quellen des GENIOS-Datenbankangebotes, wie Bücher, Fachpresse, Firmeninformationen, Literaturnachweise, Marktdaten, Personeninformationen, Tages- und Wochenpresse bietet. Das breite Informationsangebot unterstützt Lehrer und Schüler bei der Vorbereitung und Erarbeitung von Facharbeiten, Projekten, Referaten und Planspielen. Die thematische Vielfalt der Datenbanken bietet Nutzungsmöglichkeiten in vielen Fächern (Sprachen, Politik, Sozialkunde, Erdkunde, aber auch Betriebs- und Volkswirtschaftslehre u. v. m.). GENIOS SCHULE beinhaltet darüber hinaus eine Archiv-Funktion für die Rechercheergebnisse. Der Zugang erfolgt über IP-Freischaltung, so dass das Angebot in der gesamten Schule genutzt werden kann.
Macht KI tatsächlich Schule?
Am Ende des Vortragsprogramms fanden sich die Tagungsteilnehmer unter der Moderation von Tamara Heck in drei Open Table-Runden zusammen, um in kleineren Runden offen gebliebene Fragen zu besprechen, namentlich KI in der Wissenschaft, Gesundheitskompetenz und Anpassung der Studiengänge hinsichtlich KI-Themen.
In der Abschlussdiskussion stellte Matthias Ballod als Moderator seinen vier Gästen fünf Fragen:
Welchen Nutzen könnte KI für den Lerner / für den Lehrer haben?
Bei welchen Herausforderungen im Bildungsbereich könnten KI-Technologien helfen?
Wie sollten KI-Entwicklungen im Bildungsbereich begleitet werden?
Wenn Sie einen Aktionsplan aufstellen dürfte: Was wären Ihre nächsten Schritte?
Was haben Sie von dieser Veranstaltung mitgenommen?
Einigkeit bestand, dass Schülerinnen und Schüler auf möglichst unterhaltsame Weise schnell ihr Lernziel erreichen wollen. Lehrkräfte wünschen sich durch KI Unterstützung bei der Gestaltung von Unterrichtseinheiten und Lehrplänen. Jürgen Neher, Professor für Webtechnologie und Semantic Web an der FH Potsdam, schätzt, dass vielleicht zehn bis fünfzehn Prozent der Studierenden wirklich neugierig seien. Die Mehrzahl wolle tatsächlich möglichst bequem und schnell den erforderlichen „Schein“. KI könnte Selbsttests unterstützen und den Dozenten Feedback darüber geben, ob die Lernziele erreicht wurden. Auch KI-basierte Studienwahlassistenten seien denkbar und wünschenswert. Sue-Ann Bäsler sieht das Potenzial vor allem darin, trotz großer Klassen die individuelle Förderung einzelner Kinder zu ermöglichen. Das Thema KI müsse aber auch als Lerngegenstand Eingang in die Lehrpläne finden.
Stefan Luther, im BMBF zuständig für die erst im Herbst 2018 eingerichtete Unterabteilung Allgemeine Bildung, betonte, dass die Verkündigung des Digitalpakts im Herbst 2016 mit seinem Volumen von fünf Milliarden Euro für Investitionen in die Infrastruktur eine Welle lostreten und inhaltliche Debatten über neue Formen in der Schulbildung befeuern sollte, was auch geglückt sei. Der Schwung müsse erhalten bleiben und die Länder müssten sich jetzt auf die entsprechende Aus- und Weiterbildung der Lehrkräfte konzentrieren und sich um die Weiter
entwicklung von Lehrinhalten und Curricula kümmern. Der Einsatz von Learning Analytics könne Entscheidungsgrundlagen für eine bessere Bildung liefern. Vermieden werden müsse jedoch, dass durch adaptive KI und Individualisierung des Lernens die Heterogenität zunehme und es zu einer weiteren ungerechten Spreizung komme. Die Entwicklung müsse klug gestaltet und das rechte Maß gefunden werden. Gelernt habe er, dass man die Entwicklung nüchtern beobachten, und sich nicht vom Hype um KI besoffen machen solle.
Den Wunsch nach Lehrerfortbildung und Öffnung der Curricula für KI äußerte auch Olivetta Gentilin aus der Schulpraxis heraus. Gleichzeitig empfindet sie die unterschiedliche Ausstattung der Schulen als ungerecht. Jürgen Neher regte zunächst einmal großangelegte Studien zum adaptiven Lernen an. Mit den in derzeitigen KI-Anwendungen durch maschinelles Lernen abgebildeten Stereotypen sei der Abbau von Ungerechtigkeit schwer vorstellbar.
KI ist strohdumm
Als Fazit lässt sich feststellen, dass KI in der Schule – vielleicht glücklicherweise – noch nicht angekommen ist. Im Bildungsbereich besteht zwischen Digitalisierung einerseits und KI-Anwendungen andererseits noch eine breite Kluft. Die derzeit in Aus-, Fort- und Weiterbildungseinrichtungen eingesetzte Software stammt vorwiegend aus der Computerlinguistik. Maschinelle Lernverfahren werden vereinzelt eingesetzt, sie sind jedoch bisher vor allem Instrumente in der Bildungsforschung.. Dies bietet die Chance, noch gestaltend mitzuwirken. Aufgerufen dazu ist die Gesellschaft insgesamt. Information Professionals müssen sich dafür einsetzen, dass in allen Ausbildungsgängen ein breit angelegtes Konzept informationeller Kompetenz und Selbstbestimmung vermittelt und ein Verständnis für die Funktionsweise und die Beschränktheit der vielen Helferlein entwickelt wird, die sich in unseren Alltag einschleichen – KI ist strohdumm, das wurde mehrfach verdeutlicht.
Die informationswissenschaftlichen Studiengänge sind gefordert, sich weiter zu modernisieren und in interdisziplinären Projekten an der Entwicklung automatisierter Verfahren zur Unterstützung der klassischen intellektuellen Informationstätigkeiten mitzuwirken. Wie wäre es mit einer KI, die selbstständig und verlässlich Vorschläge zur Dokumentationswürdigkeit machen kann?
Die Vorträge des DGI-Forums Wittenberg 2019 wurden von Sebastian Schubert aufgenommen und sind als Videos unter https://dgi-info.de/dgi-forum-wittenberg-2019-programm/ verfügbar. Unser Dank gilt der MLU für die großzügige personelle und sächliche Unterstützung. Ebenso danken wir unseren Sponsoren GBI-Genios und dem FIZ Karlsruhe. Ausgewählte Beiträge der Tagung werden in den nächsten Ausgaben dieser Zeitschrift veröffentlicht werden.
Deskriptoren
Tagung, DGI-Forum Wittenberg 2019, , Bildungspolitik, Computerlinguistik, Digitalisierung, Künstliche Intelligenz, KI, Schule, Ausbildung, Weiterbildung, Informationswissenschaft, Projekt
© 2019 Walter de Gruyter GmbH, Berlin/Boston