How to Create and Deliver Intelligent Information

Macht KI unsere Informationen intelligent?

Diese Leitfrage ist das Herzstück meines Fachvortrags auf der tekom Jahrestagung am 13. November 2019 um 10:00 Uhr in Raum C7.3. Ich freue mich schon sehr, über den potenziellen Zusammenhang zwischen KI und Informationen zu sprechen und ebenso auf eine lebhafte Diskussion mit Fachleuten aus der Technischen Kommunikation, Journalisten und Datenwissenschaftlern. Besonders gespannt bin ich auf den Austausch darüber, auf welchem Stand in diesem Gebiet sie uns gerade sehen.

Genau genommen kann ich es gar nicht mehr erwarten. Steigen wir doch gleich direkt hier ein. Lass uns dazu zunächst ein wenig zurücktreten…. Um KI zu verstehen, müssen wir sicherstellen, dass wir verstehen, was Intelligenz ist.

Was ist Intelligenz?

Laut Neel Burton, Doktor der Psychologie in Psychology Today, gibt es „keine einheitliche Definition oder ein gemeinsames Modell von Intelligenz.“

Nach dem Collins English Dictionary ist Intelligenz „die Fähigkeit zu denken, zu argumentieren und zu verstehen, anstatt Dinge automatisch oder instinktiv zu tun“.

Nach dem Macmillan Dictionary ist es „die Fähigkeit, Dinge zu verstehen und über sie nachzudenken, sowie Wissen zu erwerben und zu nutzen“.

Mir gefällt auch die Wikipedia-Definition:

Intelligenz wurde auf viele Arten definiert, einschließlich: die Fähigkeit zur Logik, zum Verstehen, zur Selbstwahrnehmung, zum Lernen, zum emotionalen Wissen, zum Argumentieren, zur Planung, zur Kreativität, zum kritischen Denken und zur Problemlösung.

Allgemeiner kann man es als die Fähigkeit beschreiben, Informationen wahrzunehmen oder abzuleiten und sie als Wissen zu bewahren, das auf adaptive Verhaltensweisen in einer Umgebung oder einem Kontext anzuwenden ist.

Ich mag besonders „die Fähigkeit, Informationen wahrzunehmen oder abzuleiten und als Wissen zu bewahren, das auf adaptive Verhaltensweisen in einer Umgebung oder einem Kontext anzuwenden ist“. Dies kann uns helfen, das Verständnis von künstlicher Intelligenz voranzutreiben.

In dieser Definition habe ich jedoch immer noch ein Problem mit dem Schritt von der Information zum Wissen. Wenn wir akzeptieren, dass Wissen definiert werden kann als „Fakten, Informationen und Fähigkeiten, die durch Erfahrung oder Ausbildung erworben wurden; das theoretische oder praktische Verständnis eines Themas“, dann kann alles Wissen sein. Die Definition von Wissen ist Gegenstand einer laufenden Debatte unter Philosophen auf dem Gebiet der Erkenntnistheorie. Die klassische Definition, die von Platon beschrieben, jedoch nicht endgültig gebilligt wurde, besagt, dass eine Aussage drei Kriterien erfüllen muss, um als Wissen angesehen zu werden: sie muss gerechtfertigt, wahr und geglaubt sein.

Ich würde argumentieren, dass Intelligenz in direktem Zusammenhang mit unseren sozialen Interaktionen steht. Ein völlig isolierter Mensch entwickelt eine Form der Intelligenz, die eher instinktbasiert ist, während jemand, der gebildet und integriert ist, komplexere Formen der Intelligenz entwickelt.

Wahrheit und Glaubhaftigkeit müssen wieder einmal berücksichtigt werden, wenn wir uns eines Tages in Richtung KI bewegen. Wir wollen schließlich nicht, dass KI einen Fake-News-Krieg entfacht, oder?

OK, diese Überlegungen sind alle ein wenig philosophisch, aber ich denke, dass wir uns nicht auf eine Welt einlassen können, die möglicherweise von KI beeinflusst wird (ich sagte nicht dominiert), ohne diese Grundlagen zu verstehen und uns darüber zu verständigen, wie wir sie auf die KI anwenden.

Was ist künstliche Intelligenz?

Bereits in den 1950er Jahren beschrieben die Väter des Fachgebiets, Minsky am MIT und McCarthy in Stanford, die künstliche Intelligenz als jede Aufgabe, die von einem Programm oder einer Maschine ausgeführt wird, die, wenn ein Mensch die gleiche Aktivität ausführte, dieser Intelligenz anwenden muss, um die Aufgabe zu erfüllen.

Dies ist eine sehr allgemeine, weit gefasste Definition, aus der resultiert, dass sich manchmal Meinungsverschiedenheiten darüber ergeben, ob etwas wirklich KI ist oder nicht.

Künstliche Intelligenz kann in zwei große Typen unterteilt werden: schwache KI und starke KI.

Schwache künstliche Intelligenz (schwache KI) ist eine spezifische Form der künstlichen Intelligenz, bei der eine Technologie den Menschen in einer sehr eng definierten Aufgabe übertrifft. Im Gegensatz zur starken künstlichen Intelligenz konzentriert sich die schwache künstliche Intelligenz auf eine einzige Teilmenge kognitiver Fähigkeiten und Fortschritte in diesem Spektrum.

Die künstliche allgemeine (starke) Intelligenz (AGI=artificial general intelligence) ist die Intelligenz einer Maschine, die in der Lage ist, jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die ein Mensch erfüllen kann. Es ist ein Hauptziel einiger Forschungen zur künstlichen Intelligenz und ein gemeinsames Thema von Science Fiction und Zukunftsstudien.

„Jede intellektuelle Aufgabe, die ein Mensch erfüllen kann“. Du siehst also, warum wir zu den Grundlagen zurückkehren müssen, um zu verstehen, was Intellekt und Wissen sind.

Der 1950 von Alan Turing entwickelte Turing-Test ist ein Test zur Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen entspricht oder nicht von ihm unterscheidbar ist. Turing schlug vor, dass ein menschlicher Gutachter Konversationen in natürlicher Sprache zwischen einem Menschen und einer Maschine beurteilen würde, die konzipiert wurde, menschenähnliche Reaktionen zu erzeugen. Dem Gutachter wäre bewusst, dass einer der beiden Gesprächspartner eine Maschine ist und alle Teilnehmer würden voneinander getrenntsein. Das Gespräch würde sich auf einen reinen Textkanal, wie eine Computertastatur und einen Bildschirm beschränken, so dass das Ergebnis nicht von der Fähigkeit der Maschine abhinge, Wörter als Sprache darzustellen. Wenn der Gutachter die Maschine nicht zuverlässig vom Menschen unterscheiden kann, soll die Maschine den Test bestanden haben.

Im vorherigen Absatz kannst du bereits erkennen, warum heute so viel Wert auf maschinelles Lernen und Sprache gelegt wird.

Die Technologien rund um die KI

ML und NLP sind die Bereiche, in die wir heute massiv investieren. ML, kombiniert mit Bilderkennung, wird in der Sicherheitstechnik eingesetzt. NLP wird verwendet, um Chatbots zu betreiben. Weder ML noch NLP haben meiner Meinung nach bisher unstrittige Ergebnisse gebracht. Hinter ML verbirgt sich die massive Macht riesiger Computer, die viel schneller sind als ein Mensch. Schneller zu sein bedeutet nicht, genauer zu sein.

NLP ist ein Teilgebiet der Informatik, Informationstechnik und künstlichen Intelligenz, das sich mit den Interaktionen zwischen Computern und menschlichen (natürlichen) Sprachen befasst, insbesondere mit der Frage, wie man Computer programmiert, um große Mengen an natursprachlichen Daten zu verarbeiten und zu analysieren.

Herausforderungen bei der Verarbeitung natürlicher Sprachen sind häufig die Spracherkennung, das Verständnis natürlicher Sprachen und die Generierung natürlicher Sprache.

Parallel zum Natural Language Processing (NLP) finden wir die Natural-Language-Programmierung (eine weitere NLP), die eine ontologisch unterstützte Form der Programmierung in Form von natürlich-sprachigen Sätzen, z.B. Englisch, ist. Ein strukturiertes Dokument mit Inhalten, Abschnitten und Unterabschnitten zur Erklärung von Sätzen bildet ein NLP-Dokument, das eigentlich ein Computerprogramm ist. Zu den natürlichen Sprachen und natürlich-sprachigen Benutzeroberflächen gehören Inform7, eine natürliche Programmiersprache zur Erstellung interaktiver Fiktion; Ring, eine Allzwecksprache; Shakespeare, eine esoterische natürliche Programmiersprache im Stil der Stücke von William Shakespeare und Wolfram Alpha, eine computergestützte Wissensmaschine, die natürliche Spracheingabe verwendet. Einige Methoden zur Programmsynthese basieren auf der natürlichen Sprachprogrammierung.

Bei der Programmierung in natürlicher Sprache scheint es offensichtlich, dass Informationsspezialisten einbezogen werden müssen, und wir uns darüber verständigen müssen, wie wir in diesem Zusammenhang Informationen liefern.

Verwenden wir heute künstliche Intelligenz?

Wir tun es und wir tun es nicht. Wir beginnen, Anwendungen in einigen der Bereiche zu sehen, die mit einer schwachen KI in Bezug auf Systeme, die auf maschinellem Lernen basieren, verbunden sind, aber diese Fortschritte sind teilweise auf die Verfügbarkeit leistungsfähiger Computersysteme zurückzuführen. NLP steckt immer noch in den Kinderschuhen, und wir bilden weiterhin Programmierer und Datenwissenschaftler aus.

Wir stehen also ganz am Anfang der schwachen KI. Was die starke KI (AGI) betrifft, so sind wir noch sehr, sehr weit vom Ziel entfernt. Der bordeigene Star Trek Computer wird morgen nicht erfunden werden.

Können Informationen intelligent sein?

Ohne meine geschätzten Kollegen verärgern zu wollen, würde ich doch definitiv sagen, dass Informationen nicht intelligent sind und nie intelligent sein können.

Wie Information jedoch zu Wissen und Prozessen beiträgt, macht sie das Endergebnis intelligent. Die Intelligenz liegt in der Programmierung oder nicht. Es liegt auch in der Fähigkeit der Prozesse, sich an einen Kontext, eine Situation oder ein Individuum anzupassen, dass Intelligenz ins Spiel gebracht wird.

Kontext Broker wie FIWARE-ORION sind einen genauen Blick wert, da sie Informationen in einem fein abgestimmten Kontext liefern und eine breite Palette von Sensoren verwenden.

Wir können Informationen für die Nutzung zum Aufbau von Intelligenz durch validierte Ontologien, molekulare Inhalte und Tagging entwerfen. Die Initiative in3 der tekom ist ein Schritt in diese Richtung.

Wo steckt die Molekulare Information

Als Gründungsmitglied des Information 4.0 Konsortiums achte ich besonders auf das Konzept der molekularen Information. Wir sind nicht die einzigen, die glauben, dass dies wichtig ist. Das Pharmaunternehmen Roche erklärt: „Molekulare Information steht kurz davor, [zu revolutionieren], wie wir Krebs betrachten“.

Können wir die KI sich selbst überlassen?

Wer arbeitet mit KI und warum? Wer entwickelt KI-Systeme? Wofür wurden sie entwickelt?

All das sind Fragen, mit denen wir uns befassen und an denen wir uns beteiligen müssen. Wir sind Teil der Informationsindustrie. Informationen sind ein wichtiger Bestandteil von KI-Systemen.

Sollten wir Angst vor KI haben?

Trotz des großen Hypes, den wir mitbekommen, wird KI uns nicht ersetzen. Sie wird sich jedoch nach und nach auf die Art der Arbeit auswirken, die wir leisten. Wir werden KI-Systeme in unsere tägliche Arbeit integrieren müssen, und oft die Art und Weise, wie wir für sie schreiben, anpassen.

Wir sollten keine Angst haben, aber wir sollten sehr wachsam sein, was die Auswirkungen der Systeme auf unsere Endnutzer und ganz allgemein auf die Gesellschaft betrifft. Auf der humanistischen Seite können wir die KI nicht unkontrolliert lassen, auch wenn es sich nicht um eine starke künstliche Intelligenz handelt, vor allem, weil  es sobald Marketing ins Spiel kommt eine Tendenz geben wird, zu sagen: “ KI hat das getan, also kann es nicht falsch sein“.

Ethik

Im April 2019 präsentierte die Europäische Kommission ihre nächsten Schritte zum Aufbau von Vertrauen in künstliche Intelligenz, indem sie die Arbeit der hochrangigen Expertengruppe fortsetzte. Diese Initiative enthält sieben wesentliche Elemente für die Erreichung einer vertrauenswürdigen KI:

Eine vertrauenswürdige KI sollte alle geltenden Gesetze und Vorschriften sowie eine Reihe von Anforderungen einhalten; spezifische Bewertungslisten sollen dazu beitragen, die Anwendung jeder der wichtigsten Anforderungen zu überprüfen:

  • Menschliches Handeln und Kontrolle: KI-Systeme sollten gerechte Gesellschaften ermöglichen, indem sie menschliche Handlungsweisen und Grundrechte unterstützen und nicht die menschliche Autonomie verringern, einschränken oder irreführen.
  • Robustheit und Sicherheit: Eine vertrauenswürdige KI erfordert, dass die Algorithmen sicher, zuverlässig und robust genug sind, um mit Fehlern oder Inkonsistenzen während aller Lebensphasen von KI-Systemen fertigzuwerden.
  • Datenschutz und Datenverwaltung: Die Bürger sollten die volle Kontrolle über ihre eigenen Daten haben, während die sie betreffenden Daten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  • Transparenz: Die Rückverfolgbarkeit von KI-Systemen sollte gewährleistet sein.
  • Vielfalt, Nichtdiskriminierung und Fairness: Die KI-Systeme sollten das gesamte Spektrum der menschlichen Fähigkeiten, Fertigkeiten und Anforderungen berücksichtigen und die Zugänglichkeit sicherstellen.
  • Gesellschaftliches und ökologisches Wohlbefinden: KI-Systeme sollten eingesetzt werden, um den positiven sozialen Wandel zu fördern und Nachhaltigkeit und ökologische Verantwortung zu stärken.
  • Verantwortlichkeit: Es sollten Mechanismen geschaffen werden, um die Verantwortung und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse zu gewährleisten.

Google löste seine unabhängige Ethikkommission im April 2019, nur wenige Wochen nach ihrer ersten Sitzung auf und machte aus der gesamten Initiative einen internen Vorgang. Joanna Bryson, die ich wirklich respektiere, gehörte dem unabhängigen Ausschuss an.

Schau dir doch nebenbei einen Artikel in Wired an – ein Gespräch zwischen Elon Musk und Jack Ma, bei dem Musk sagt: „Die Geschwindigkeit der technologischen Veränderungen ist unglaublich hoch. Sie übertrifft unsere Fähigkeit, sie zu verstehen. Ist das gut oder schlecht? Ich weiß es nicht.“

Spielen wir überhaupt noch eine Rolle?

Ich würde das auf jeden Fall bejahen, besonders wenn man analysiert, was Elon Musk gesagt hat. Wir sind keine Technischen Redakteure mehr. Ich glaube, wir sind in erster Linie Humanisten. Wir bewegen uns immer mehr in Richtung Informationsdesign und Experience Design. Einige von uns arbeiten in der Lehre. Wir müssen eng eingebunden sein und verstehen, warum KI das tut, was sie tut. Wir werden mit Programmierern von KI-Lösungen zusammenarbeiten müssen und dürfen dabei nicht zögern, diese kritisch zu hinterfragen. Sie haben nicht immer einen humanistischen Ansatz, wir hingegen häufiger.

Wir spielen hier auch eine ethische Rolle. Der Krieg gegen gefälschte Nachrichten wird nicht von der KI gewonnen werden, sondern von Leuten wie uns. Der Krieg gegen gefälschte Nachrichten wird durch Interessengruppen, soziale Medien und, für einige wenige von uns, durch die Mitarbeit in Ethikkommissionen geführt. Blockchain-Technologien können in Zukunft eventuell helfen und veröffentlichte Informationen unveränderlich machen. Die Kriterien für eine vertrauenswürdige KI gelten auch für Informationen. Journalisten werden wahrscheinlich besonders davon betroffen sein, und das sollten sie auch.

Jussi Toivanen stand vor dem Hörsaal des Espoo Adult Education Centre und arbeitete sich durch seine PowerPoint-Präsentation. Eine Folie mit dem Titel „Wurden Sie von der russischen Trollarmee getroffen?“ enthielt eine Checkliste mit Methoden zur Täuschung der Leser in sozialen Medien: Bild- und Videomanipulationen, Halbwahrheiten, Einschüchterungen und falsche Profile.

Der Weg zur Intelligenz führt über kuratierte, validierte Informationen. Das ist bereits Teil unserer Arbeit. Um KI, Kontext-Broker und Verarbeitung im laufenden Betrieb zu fördern, müssen wir unsere Informationen molekularer gestalten. Wir müssen aktiv in den Krieg gegen gefälschte Nachrichten eingebunden werden.

KI (schwache, nicht starke) kann eines Tages unserer Arbeit oder, noch mehr, unseren Nutzern helfen. Sie kann sowohl den Job als auch die Benutzer beeinflussen, aber sie wird uns nicht ersetzen.

Das sind nur einige der Themen, die in meinem Vortrag im November in Stuttgart behandelt werden. Also sei dabei! Ich freue mich, dich dort zu treffen.



Lesetipp:

Kann KI lernen zu malen oder zu schreiben?

Ein kürzlich erschienenes Buch von David Foster, herausgegeben von O’Reilly, bietet eine interessante Lesart über Generative Deep Learning (GDL). Er sagt: „Mit dem Generativen Deep Learning ist es jetzt möglich, einer Maschine beizubringen, sich in menschlichen Bestrebungen wie Malen, Schreiben oder Komponieren von Musik zu übertreffen“.

Dies kann Deep Learning möglicherweise die zusätzliche Macht geben uns herauszufordern. Zumindest kann es so wirken, wenn eine nicht informierte Öffentlichkeit betroffen ist. Es gibt eine Verwechslung zwischen wahrer Kreativität und der Ableitung neuer Materialien aus bestehenden Materialien durch Deep Learning, und das sehen wir auch hier.

Andy McDonald
Follow me

Andy McDonald

Trained as a social psychologist, Andy McDonald has been designing and writing documentation for the oil industry since 1998, and is now Product Manager for Tech Advantage in the Paris area.
Having seen methods, norms and formats come and go, his basic training leads him naturally to concentrate on the people involved in the processes and the end user requirements.
Andy McDonald
Follow me

Letzte Artikel von Andy McDonald

Like it? Share it! Spread the Word...

Sag uns jetzt deine Meinung per Kommentar!