Unsere Expert:innen im Interview: Dr. Jaromir Konecny über Chancen und Risiken von KI.
Wenn Künstliche Intelligenz Fehler macht, dann liegt das meistens am Menschen
Künstliche Intelligenz (KI) ist längst Realität. Die Veröffentlichung des Sprachmodells ChatGPT hat das Thema einer breiten Öffentlichkeit bewusst gemacht. Aber wo geht die Reise hin mit der KI? Haben wir Grund zur Sorge – oder müssen wir die Chancen nur bewusst nutzen? Um diese Fragen geht es beim komplexen AI TRiSM Ansatz. Unser Experte Dr. Jaromir Konecny erklärt, was das für den Umgang mit KI bedeutet – und warum es ohne sie nicht mehr geht.
Einführung in Künstliche Intelligenz und AI TRiSM
Zu Beginn des Interviews gibt es eine kurze Einführung in das Thema KI und den AI TRiSM-Ansatz, der für das Vertrauens-, Risiko- und Sicherheitsmanagement von Künstlicher Intelligenz steht.
Frage: AI TRiSM steht für Artificial Intelligence Trust, Risk & Security Management. Herr Dr. Konecny, was hat es damit auf sich?
Antwort: Den Begriff haben die Analyst:innen bei Gartner geprägt. Es geht darum, Akzeptanz und Vertrauen für den Einsatz von KI-Modellen in der Wirtschaft zu schaffen, dabei aber Risiken und Gefahren zu sehen und die KI zu kontrollieren. Das ist als Ansage an die Industrie zu verstehen, wenn diese mit KI-Modellen dauerhaft erfolgreich sein will. Stimmen die Ergebnisse? Was ist mit dem Datenschutz? Solche Dinge gilt es zu prüfen.
Kontrolle über Künstliche Intelligenz
In diesem Abschnitt diskutiert Dr. Konecny die Herausforderungen bei der Kontrolle der KI und der Möglichkeit ihrer Selbstständigkeit. Er betont die Notwendigkeit von Wissen und Know-how, um die KI effektiv zu kontrollieren.
Frage: Da gibt es die Sorge, dass Kontrolle kaum mehr gelingen kann und die KI sich bald verselbstständigt. Fehlt es den Firmen schlicht am nötigen Know-how?
Antwort: Als Dozent für KI teile ich viele Ängste in Bezug auf die KI nicht. Es ist wie bei uns an der Hochschule: Wenn wir wissen möchten, ob der Unterricht funktioniert, prüfen wir die Studierenden zum Beispiel mit Klausuren oder evaluieren die Lehrangebote – und analysieren nicht ihre Gehirnaktivität. Damit wir den Ergebnissen der KI vertrauen können, müssen wir die KI entsprechend testen. Das geht nur, wenn wir damit arbeiten.
Frage: Die Entwicklung der KI geht aber vielen Menschen zu schnell. Können Sie es nachvollziehen, dass die Berichterstattung über ChatGPT für Erstaunen und Bedenken gesorgt?
Antwort: ChatGPT wurde darauf trainiert, eloquent mit uns zu kommunizieren – und dann schimpfen wir, wenn es gelingt! Ich sehe diese Modelle als wertvolle Werkzeuge, die man natürlich richtig einsetzen muss. Das geht aber nicht, wenn wir den Umgang damit ablehnen. Wenn die Modelle Fehler machen, hat das meistens mit den Menschen zu tun, die sie trainieren und einsetzen. Und mit dem Stand der Entwicklung dieser Modelle. Es gibt selbstverständlich Probleme, aber die werden immer besser gelöst.
Nutzung und Sicherheit der Künstlichen Intelligenz in Unternehmen
In diesem Abschnitt spricht Dr. Konecny über die Anwendung von KI in Unternehmen und die Notwendigkeit, Risiken zu erkennen und zu benennen. Er erörtert einige Beispiele, in denen die KI unerwartete Ergebnisse lieferte, und betont die Wichtigkeit der Transparenz in diesen Situationen.
Frage: Wie sollen die Firmen den sicheren Einsatz der KI gemäß des AI TRiSM-Ansatzes denn gewährleisten können, wenn uns schon ein Chatprogramm so verunsichert?
Antwort: Natürlich wird man sich nicht immer einen KI-Experten leisten können. Grundsätzlich werden die Unternehmen aber großen Wert darauflegen, KI vertrauensbildend einzusetzen und Risiken zu erkennen und auch zu benennen. Hier ist ausgiebiges Testen wichtig, da man oft nicht voraussieht, was schief gehen kann. Ein Beispiel: Microsoft wollte den Chatbot Tay einmal anhand von Tweets darauf trainieren, so zu kommunizieren, wie junge Menschen es tun. Nun, wenn ich einen Chatbot mit Sätzen trainiere, die auch Rassistisches beinhalten, dann brauche ich mich nicht zu wundern, wenn der Chatbot nachher rassistische Ansagen macht. So etwas passiert, aber das hat man auch transparent kommuniziert.
Frage: Gleichzeitig hat ausgerechnet Big Tech nicht gerade ein positives Image, wenn es um Begriffe wie Vertrauen, Transparenz oder Datenschutz geht, die AI TRiSM umfasst.
Antwort: Misstrauen gegenüber Großkonzernen ist berechtigt. Plattformen wie Google oder Meta wollen zuerst Geld verdienen. Aber wir müssen bei aller Kritik integer bleiben! Mir ist Mark Zuckerberg auch nicht sympathisch. Doch solches Denken führt zu Vorbehalten: Meta musste sein Chatprogramm Galactica schnell wieder aus dem Verkehr ziehen. ChatGPT machte auch grobe Fehler. Doch das Modell kommt von OpenAI, die haben ein anderes Image als Meta, da gab es nicht dieselben Bedenken. Aber OpenAI wird mittlerweile massiv von Microsoft finanziert, weshalb ChatGPT jetzt in deren Suchmaschine Bing drinsteckt. Google steht mit dem Einsatz seines Chatbots Bard in seine Suchmaschine in den Startlöchern. Welche Plattform jetzt mehr Menschen anspricht, weiß niemand. Mit den Chatbots arbeiten wollen auf jeden Fall viele. Und man verdient bereits auch Geld damit.
Frage: Heute eine Suchmaschine – und morgen? Müssen wir uns Sorgen machen, dass die KI irgendwann ein eigenes Bewusstsein entwickelt?
Antwort: Ich finde es absurd, wenn wir KI-Modellen eine Seele oder ein Bewusstsein attestieren, bloß weil sie unsere Sprache nachahmen können. Wenn der ehemalige Google-Mitarbeiter Blake Lemoine Persönlichkeitsrechte für ein Programm einfordert – Entschuldigung, da muss ich lachen. Ein Problem im Umgang mit KI ist, dass das Wissen darüber zu großen Teilen aus der Popkultur kommt. Wir alle kennen den Terminator und wissen, dass der Bordcomputer Hal 9000 im Film 2001 – Odyssey im Weltraum Menschen umbringt, um die ihm einprogrammierten Ziele des Flugs zu erreichen. Das sind falsche Vorstellungen, die einem sicheren und sinnvollen Einsatz von KI entgegenstehen. Es beginnt schon beim deutschen Begriff Künstliche Intelligenz. Man hat ‘Intelligence’ 1:1 aus dem Englischen übernommen. Ist es aber stimmig? Die Central Intelligence Agency (CIA) heißt ja auch nicht so, weil die so gescheit sind, sagte der österreichische KI-Pionier Robert Trappl. ‘Intelligence’ bedeutet auch Informationsverarbeitung. Für mich sind KI-Modelle wichtige Werkzeuge, mit denen man umgehen lernen muss.
Frage: In einem Blogbeitrag haben Sie argumentiert, dass man doch auch nicht alle Messer verbieten würde, bloß weil man damit jemanden verletzen kann. Aber können sich diese Werkzeuge nicht furchteinflößend entwickeln?
Antwort: Entdeckungen können als todbringende Waffen missbraucht werden, aber auch zu friedlicher Nutzung führen: uns zu helfen den Klimawandel zu stoppen oder gefährliche Krankheiten zu bekämpfen. Die KI ist in der Welt, wir müssen uns damit auseinandersetzen. Dass wir eines Tages zum Beispiel eine Super-Intelligenz schaffen, oder dass sie sich selbst erschafft, das wird oft beschworen. Aber diese Gefahr sehe ich nicht. John von Neumann hat schon vor Jahrzehnten gezeigt, dass eine Maschine keine andere Maschine entwickeln kann, die klüger ist als sie selbst.
Missverständnisse und Fehlinformationen über Künstliche Intelligenz
Hier geht Dr. Konecny auf einige Missverständnisse und Fehlinformationen über KI ein, die oft aus der Popkultur stammen. Er argumentiert, dass diese falschen Vorstellungen einem sicheren und sinnvollen Einsatz von KI im Wege stehen.
Frage: Vielleicht noch nicht?
Antwort: Eine Maschine kann keine klügere Maschine entwickeln, als sie selbst ist. Das wäre ein Paradox. Wenn eine Maschine etwas erschafft, dann ist sie klüger als das Erschaffene. Schauen Sie sich aber in Ihrem Alltag um: Wann haben Sie zuletzt ein Programm oder eine App installieren wollen, aber Ihr Gerät konnte die Mindestanforderungen nicht erfüllen? Zu langsam, zu wenig Speicher: Unsere Hardware hinkt der Entwicklung der Software immer schon hinterher. Wir erfahren ständig Grenzen, wie soll sich KI da autonom entwickeln? Wenn eine Maschine etwas tut, was ich nicht haben will, dann schalte ich sie einfach ab.
Frage: Wie sollen wir also umgehen mit der KI?
Antwort: So, wie wir es bislang schon tun: KI-Forschung und Data Science haben sich zum größten Open Source Projekt der Menschheit entwickelt. Jede Studie zum Thema wird veröffentlicht. Die großen Plattformen haben reges Interesse daran, dass ihre wissenschaftlichen Artikel und Blogs gelesen und ihre Modelle als open source getestet werden. Ein sicherer Umgang mit KI-Modellen kann nur gelingen, wenn wir alle Zugang zu den Modellen haben und diese auch nutzen. Und wenn wir uns in Sachen KI bilden. Dann haben wir selbst größere Chancen in der Zukunft als Menschen, die lieber Terminator schauen als zu lernen.
Datenschutz und Zugang zu Künstlicher Intelligenz
Dr. Konecny äußert sich hier zu den Bedenken hinsichtlich des Datenschutzes und der Sammlung von Daten für die Entwicklung von KI-Modellen. Er betont die Bedeutung des Zugangs zu KI-Modellen und der Bildung in diesem Bereich.
Frage: Und der Datenschutz?
Antwort: Klar habe ich da auch Bedenken. Fakt ist aber, dass wir heute keine Deep-Learning-Modelle hätten, wenn wir das Sammeln von Daten komplett verhindert hätten. Die gäbe es dann nämlich nur in Ländern ohne umfassenden Schutz personenbezogener Daten. Ich habe schon vor Jahren einen Kollegen aus China gefragt, warum sie uns mit Künstlicher Intelligenz so weit voraus sind. Er hat nur gelächelt und gemeint: Wir haben die Daten. Und das stimmt: Man kann keine vernünftigen KI-Modelle entwickeln, wenn man keine Datensätze zur Verfügung hat.
Frage: Was müssen wir in Forschung und Lehre verbessern, um zu einem guten Umgang mit der KI zu kommen?
Antwort: Hier an der SRH Fernhochschule sind wir schon sehr gut aufgestellt. Wir beschäftigen Fachdozent:innen und Professor:innen, die intensiv zur KI und deren Einsatz in der Wirtschaft forschen, insbesondere im Gesundheitsbereich.
Künstliche Intelligenz in der Bildung und Kunst
In diesem Abschnitt spricht Dr. Konecny über die Anwendung von KI in der Bildung und Kunst. Er diskutiert die Potenziale und Herausforderungen, die die KI in diesen Bereichen bietet, und betont, dass die KI als Werkzeug und nicht als Ersatz für menschliche Fähigkeiten gesehen werden sollte.
Frage: Aber gerade an Schulen und Hochschulen kann KI doch zum Problem werden. Oder haben Sie nicht die Sorge, dass Ihre Studierenden ihre Seminararbeiten bald nicht mehr selbst recherchieren und schreiben, sondern dass ChatGPT das für sie erledigt?
Antwort: Wir werden die Potenziale der KI auch in der Lehre nutzen. Ein Programm wie ChatGPT begreifen wir als Chance für unsere Studierenden – und nicht in erster Linie als Risiko, dass beim Verfassen von wissenschaftlichen Arbeiten betrogen wird. Natürlich sehen wir auch die Herausforderungen. Aber wenn wir uns an die 1990er-Jahre erinnern: Damals wurde diskutiert, ob die ständige Erreichbarkeit per Handy und E-Mail uns Menschen unselbständig macht. Softwarelösungen wurden wie heute die KI als Risiko und nicht als Erleichterung empfunden. Ich bin mir sicher, dass wir auf diese technische Revolution in zehn Jahren gelassen zurückblicken werden. Mit Innovationen ist wie beim Wetter: Man kann es nicht verhindern, sondern sich nur richtig anziehen.
Frage: Auf Ihrem YouTube Channel KI Krimis erläutern Sie, wie Sie mithilfe des KI-Modells DALL·E 2 etliche Bilder gemalt haben. Gehen da nicht Fähigkeiten verloren, wenn Künstler:innen irgendwann vielleicht gar nicht mehr mit den Händen malen?
Antwort: Auch hier sehe ich die KI als ein Werkzeug, wie Farbe und Pinsel. Kunst entsteht zunächst im Kopf. Fotograf:innen oder Videofilmer:innen schaffen doch auch Kunst und tun dies ganz selbstverständlich mit digitalen Werkzeugen. Außerdem braucht es auch für klassische Kunst nicht immer Kunstfertigkeit. Malewitsch hat mit seinem Schwarzen Quadrat einen Meilenstein der Moderne geschaffen. Besondere malerische Fähigkeiten hat er dafür nicht gebraucht.
Frage: Zum Schluss eine Frage, die uns beide betrifft: Sie führen dieses Gespräch mit einem Menschen – jemandem, der sein Geld mit dem Schreiben von Texten verdient. Sie selbst sind neben Ihrer wissenschaftlichen Arbeit auch als Schriftsteller und Slam-Poet sehr erfolgreich. Sollten nicht wenigstens wir ins Grübeln kommen?
Antwort: Sprachmodelle werden besser werden, aber sie sind weder kreativ, noch kann man sich auf ihre ‘Fakten’ immer verlassen. Ich kenne SchriftstellerInnen, die ihre Texte immer noch am liebsten von Hand schreiben. Für die meisten ist ein Textverarbeitungsprogramm aber eine große Erleichterung. Die Entwicklung wird jedenfalls auch vor kreativen Berufen nicht halt machen. Entscheidend ist wie gesagt, wie wir damit umgehen: KI-Modelle sollen uns nicht ersetzen, sondern unsere Fähigkeiten erweitern.
Themenwelt Digitalisierung
Sie interessieren sich für Themen aus dem Bereich der Digitalisierung? Dann entdecken Sie unsere Themenwelt. Spannende Inhalte und Studiengänge erwarten Sie.
Dr. Jaromir Konecny
ist Fachdozent für Künstliche Intelligenz an der SRH Fernhochschule – The Mobile University, hat an der TU München über die Entstehung des genetischen Codes promoviert, arbeitet als Schriftsteller und steht als Slam-Poet auf der Bühne. 2020 wurde er zu den Münchner Turmschreibern berufen und ein Jahr später mit dem Ernst-Hofereiter-Preis ausgezeichnet. Konecny publiziert regelmäßig in vielfältigen Formaten zur Künstlichen Intelligenz. Mit seinen Beiträgen erregt er auch bei der weltweiten Entwickler-Elite Aufsehen. So teilte der Chief AI Scientist von Meta, Yann LeCun, jüngst einen Blogpost Konecnys, wobei die fremde Sprache für den Deep-Learning-Pionier kein Hindernis darstellte: "It’s in German, but nothing that Google Translate can’t handle."
In seiner YouTube-Reihe K.I. Krimis stellt der Experte spannende und ungelöste Probleme der Künstlichen Intelligenz vor und schreckt dabei nicht vor den ganz großen Fragen zurück: Haben Chatbots Gefühle? Kann Künstliche Intelligenz das Ende der Menschheit bedeuten? Jetzt reinschauen und mitdiskutieren!