GANZ OFFEN GESAGT
Über künstliche und natürliche Intelligenz - mit Barbara Herbst

Stefan Lassnig spricht mit Barbara Herbst, Expertin für den sinnvollen und verantwortungsvollen Einsatz von künstlicher Intelligenz, über die Chancen und Gefahren des Einsatzes von KI, warum wir zunehmend dazu tendieren KI-Instrumente zu vermenschlichen, wie die KI sinnvoll und ethisch korrekt genutzt werden kann und ob der Zeitpunkt schon absehbar ist, an dem die künstliche Intelligenz die menschliche übersteigen wird.


Stefan Lassnig
Herzlich willkommen bei ganz offen gesagt, dem Podcast für Politikinteressierte. Mein Name ist Stefan Lassnig und mein heutiger Gast ist Barbara Herbst. Sie ist Expertin für den sinnvollen und verantwortungsvollen Einsatz von künstlicher Intelligenz und ich spreche mit ihr über die Chancen und Gefahren des Einsatzes von KI. Warum wir zunehmend dazu tendieren, KI Instrumente zu vermenschlichen, wie die KI sinnvoll und ethisch korrekt genutzt werden kann und ob der Zeitpunkt schon absehbar ist, an dem die künstliche Intelligenz die menschliche übersteigen wird. Liebe Barbara, herzlichen Dank, dass du dir Zeit für dieses Gespräch nimmst. Ein Grundmotiv bei unserem politischen Podcast ist ja transparence is a new objectivity. Und in diesem Sinne beginnen wir unseren Podcast immer mit der inzwischen traditionellen Transparenzpassage.
Also woher wir uns kennen und ob wir aktuell bei du sind, bzw. Ob du für Parteien oder deren Vorfeldorganisationen tätig bist oder warst. Zur ersten Frage, woher wir uns kennen. Ehrlich gesagt, ich kann mich nicht mehr genau erinnern. Wir kennen uns schon sehr, sehr lange, aber ich glaube, es war in der Zeit, wo wir beide in Tirol gelebt haben und es war wahrscheinlich in der Zeit auf einer Veranstaltung, vermute ich.

Barbara Herbst
Ehrlich gesagt weiß es auch nicht mehr so genau. Faktum ist, ich habe in Tirol gelebt, 11 Jahre in Innsbruck. Ich habe dort studiert und auch gearbeitet. Es kann schon sein, ich war sehr viel unterwegs in der Zeit. Es kann sein, dass wir uns von dort getroffen haben. Wo wir uns jedenfalls wieder getroffen haben, war in Wien und uns immer wieder ausgetauscht haben.

Stefan Lassnig
Und aufgrund der Tatsache, dass wir viel in Tirol unterwegs waren, wissen wir wahrscheinlich auch nicht mehr, wo wir uns getroffen haben. Könnte ich mir vorstellen. Das ist sicher nicht das Alter.

Barbara Herbst
Nein.

Stefan Lassnig
Gut. Somit zur zweiten Frage, ob du aktuell für Parteien oder deren vorvolle sozial tätig bist oder warst?

Barbara Herbst
Nein.

Stefan Lassnig
Nein. Gut, danke.
Damit können wir ins Thema einsteigen. Du bist die Unternehmerin, dir gehört das Unternehmen Enable, also mit AI geschrieben. Warum AI? Darauf kommen wir gleich. Und unterstützt Personen und Organisationen dabei, künstliche Intelligenz sinnvoll einzusetzen. Das ist ja momentan ein extrem wichtiges Thema und auch ein sehr viel diskutiertes Thema. Und deswegen, wir haben uns jetzt mal vor kurzem in einem ganz anderen Kontext getroffen und du hast dann ein bisschen von deiner Arbeit erzählt und dann habe ich mir gedacht, das ist extrem spannend, was du machst.
Und dann habe ich dich gebeten, in unseren Podcast zu kommen. Wenn du bei Unternehmen bist, die deine Dienstleistungen in Anspruch nehmen und du führst das erste ausführlichere Gespräch. Welche Frage wird dir denn da am häufigsten gestellt im Zusammenhang mit KI?

Barbara Herbst
Vielen Dank, dass du mich eingeladen hast. Vielen Dank am Interesse künstliche Intelligenz und vielen Dank am Interesse, wie man es strategisch einsetzen kann. Und das ist auch die allerwichtigste Frage, die auch immer gleich kommt. Wie kann ich denn KI in meinem Unternehmen konkret einsetzen? Kann es mich unterstützen? Wo und wie kann ich sicher anwenden? Das sind eigentlich die zentralen Fragen und da kommen wir schnell auf den Punkt.
Und ich sage an der Stelle immer, dass es mit einer klaren Strategie, die eben die Chancen und Risiken für das Unternehmen abwiegt, es am besten gelingt, KI sinnvoll, sicher und verantwortungsvoll einzusetzen. Und für mich ist ganz wichtig, dass KI hat keinen Selbstzweck, sondern KI soll immer einen Mehrwert schaffen für die Kunden, für die Kundinnen und für das Unternehmen selbst natürlich.

Stefan Lassnig
Vielleicht fangen wir mal an, bevor wir in die Materie tiefer eintauchen, mit einer Definition von künstlicher Intelligenz an. Ich hab mir jetzt aus dem EU AI Act die Definition rausgesucht. Also da wird definiert, dass ein KI System ein maschinenbasiertes System ist, das konzipiert ist, dass es mit unterschiedlichen Graden der Autonomie arbeitet und nach der Bereitstellung Anpassungsfähigkeit zeigen kann und das für explizit und implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren soll, die physische oder virtuelle Umgebungen beeinflussen können. Ist das eine Definition, mit der du auch was anfangen kannst?

Barbara Herbst
Ich hätte bisschen einfachere Definition und zwar ganz, ganz vereinfacht gesagt bedeutet künstliche Intelligenz, dass Maschinen Dinge tun können, die sonst Menschen machen. Sie ahmen also menschliche Fähigkeiten nach. Das kann denken, lernen, planen sein.
Wie machen sie das? Wie ahmen sie nach? Sie haben Muster und auf Basis dieser Muster suchen sie nach Beispielen mit einer gewissen Wahrscheinlichkeit, die ihnen helfen, die Frage oder die Aufgabe, die wir von ihnen wollen, zu erfüllen. Der AI Act definiert es ein bisschen technischer und maschinenbasiert heißt ganz einfach, die KI läuft auf einem technischen System, also auf Computern. Autonom heiß, die KI kann Aufgaben selbst erledigen, z.B. texte schreiben, E Mails verfassen oder ohne, dass ein Mensch bei jedem Schritt helfen muss. Aber, und das sagt dann der AI Act, es gibt verschiedene Stufen der Autonomie.
Manche KIs sind Helfer, die z.B. beim Schreiben unterstützen. Manche KIs können schon selbstständig arbeiten, z.B. maschinensteuerung oder beim Erkennen von Mustern in großen Datenmengen. Das ist eine bestimmte Form des Lernens, die die KI kann. Die kann also aus den Trainingsdaten selbstständig Muster erkennen. Und wichtig wenn eine KI vieles alleine kann, dann trifft sie trotzdem nicht alleine die Entscheidung.
Deshalb bleibt dann ein Mensch in der Verantwortung. Und das meint der AI Act, dass im Kern die Systeme zwar autonom und flexibel aus bekannten Daten lernen können, um Muster für diese Aufgaben zu finden, aber der Mensch im Driver Seat sitzt und am Ende nur kontrollieren muss.

Stefan Lassnig
Auf das Thema, wie autonom die KI agieren, da soll, auf das kommen wir eh noch zurück. Ich finde nämlich, dass in dieser Definition ja einiges drinsteckt. Du hast jetzt schon ein paar Sachen angesprochen. Also maschinenbasiert, glaube ich, ist klar, es passiert auf Computern. Ich finde den ersten Punkt mit der Autonomie schon interessant. Zu dem Thema kommen wir dann später noch. Aber da steht kann nach der Bereitstellung Anpassungsfähigkeit zeigen.
Was soll das bedeuten? Also das heißt, ist es das, was du vorhin gesagt hast, dass es system selbstlernend ist, dass es aus Antworten wieder Antworten erzeugen kann?

Barbara Herbst
Die Vision ist, dass das System selbstlernend ist. Derzeit ist es nicht selbstlernend, aber mit der Machine Learning Methode oder mit den Methoden versuchen natürlich die Entwickler, oder das ist das Ziel, dass die KI sehr, sehr flexibel und sehr autonom und sehr selbstlernend am Ende ist. Davon sind wir noch weit weg.

Stefan Lassnig
Also wenn ich dich richtig verstehe, geht es derzeit wirklich um das Nachahmen von Mustern, die auf Trainingsdaten basieren und nicht darum, dass so was wie Intelligenz wirklich da ist.

Barbara Herbst
Exakt, genau. Man spricht von künstlicher Intelligenz. Die Frage ist, ob es wirklich intelligent ist im Sinne der menschlichen Intelligenz. Ich habe mich sehr lang damit beschäftigt, was das menschliche Hirn kann und was sozusagen das neuronale Netz, eine Form des machine Learnings oder eine Form, auf der generative KI vor allem basiert, wo da der Unterschied ist. Und dieses vernetzte Denken, serielles Denken, ist sozusagen einer Maschine inhärent. Wir können viel vernetzter denken, wir können handeln, denken, handeln, fühlen gleichzeitig. Das Fühlen kann die Maschine noch gar nicht.
Und der AI Act sieht vorweg diese Entwicklungsstufen, weil man kann ja nicht jedes Jahr diesen AI Act novellieren. Also sie davor, was als Vision auch möglicherweise noch in unserer. Vielleicht erleben wir das noch, möglicherweise aber auch nicht, wenn eine KI wirklich autonom handelt.

Stefan Lassnig
Was auch in dem AI drinsteht, in dieser Definition von künstlicher Intelligenz, ist, dass die Themen, die durch die KI durchlaufen, physische oder virtuelle Umgebungen beeinflussen. Für mich steckt da drinnen, dass das eine implizite Warnung ist, dass Dinge, die dort durchlaufen und dort rauskommen, konkrete Auswirkungen haben auf Menschen und menschliche Schicksale. Liege ich da richtig?

Barbara Herbst
Absolut. Jede Aktion sozusagen hat auch Konsequenzen. Das ist bei der KI nicht anders. Deshalb sieht der AI Act auch Risikoklassifizierungen oder Risikoklassen vor, um eben das Risiko besser einschätzen oder um Unternehmen auch eine Richtschnur zu geben, Unternehmen und Anwenderinnen und Entwicklerinnen eine Einschätzung zu geben, mit welchen Implikationen man rechnen muss, mit welchen Konsequenzen. Z.B. ist alles, was mit Personalauswahl automatisierter zu tun hat oder nur die Zuteilung von Schulungen z.B. in einem Unternehmen, KI basiert, ist ein Hochrisiko.
Das ist, glaube ich, vielen noch nicht bewusst. Warum ist das ein Hochrisiko? Weil natürlich die KI auf Basis der Daten, die man ihr gibt, eine Entscheidung trifft. Wenn sie etwas nicht in ihren Daten hat, dann neigt die KI dazu, etwas dazu zu erfinden. Das ist sozusagen systemimmanent. Und das kann massive Auswirkungen für jemanden haben, eine Schulung bekommt oder eben nicht bekommt oder zugelassen wird für ein Studium, für das er sich eignet. Nur in seinen Unterlagen findet sich das nicht.
Um das ganz konkret zu machen, diese Verzerrungen haben in amerikanischen Jobauswahlverfahren, dort gilt ja der AI Act nicht. Sie haben also eine KI eingesetzt, hat dazu geführt, die haben einen Teamplayer gesucht und die Männer haben in ihren Bewerbungsschreiben hinzugefügt, dass sie einen Teamsport spielen, Basketball, Fußball, was auch immer. Die Frauen haben das nicht gemacht. Und nur aus diesem Hobby hat die KI dann gemacht, okay, der ist ein Teamplayer und hat die Frauen aussortiert. Das hat zum Schließen. Oder das Unternehmen, das Betroffene war Amazon, musste die KI überarbeiten und für diese Zwecke nicht mehr einsetzen. In Europa ginge das nicht, weil es immer Hochrisiko ist.

Stefan Lassnig
Zu dem Thema Trainingsdaten, so kommen wir dann auch noch, weil die KI ja, da kommen wir jetzt auf das zurück, was du schon gesagt hast, ja nach Mustern arbeitet. Und sie kann ja nur nach Mustern arbeiten, die eh bekannt sind. Solange es nicht eine echte Intelligenz ist, kann sie nur auf Mustern beruhen. Und das, glaube ich, wird oft derzeit falsch dargestellt. Es wird so getan, als würde es wirklich die KI selber denken, aber sie arbeitet auf Grundlage von Mustern und Wahrscheinlichkeiten.

Barbara Herbst
Exakt so ist es. Die KI versteht nicht, was sie tut.
Wenn man z.b. biometrische Gesichtserkennung eingestellt hat und damit das Handy entsperrt, dann wirft die KI oder das Handy wirft Unmengen an Lichtpunkten ins Gesicht und man hat das Gefühl, die KI erkennt mich. Das tut sie nicht. Sie erkennt nur anhand der Muster, der Bildpunkte, die hat sich schon gespeichert, dass das deine sind und deshalb entriegelt sie das Tätow mit dem Fingerabdruck. Sie weiß nicht, wem der Fingerabdruck gehört. Sie weiß nur, dieser Fingerabdruck ist hinterlegt für dieses Handy.

Stefan Lassnig
Das ist ja auch eine sehr große Gefahr bei den large language Models, also bei den, ich würde sagen, wahrscheinlich das bekannteste derzeit, ChatGPT, wo die Leute auch das Gefühl haben, da kommen irgendwelche Antworten, die quasi irgendwo entstanden sind. Sie sind irgendwo entstanden, aber nicht, weil jemand Intelligenz hat oder weil eine Maschine Intelligenz hat, sondern weil die Maschine Wörter nach einer bestimmten statistischen Wahrscheinlichkeit aneinanderreiht. Das ist ja ein Unterschied.

Barbara Herbst
Wenn wer Intelligenz hat, dann die Entwickler dieser Algorithmen und die Erfinder. Da gibt es natürlich nicht einen. Die erste Programmiererin der Welt, also der erste Mensch der Welt, der programmiert hat, war Frau im Show 1800. Die hat das Zitat da wie mitgebracht. Die hat gesagt, Ada Loveless, die Tochter von Lord Byron, durfte natürlich nicht offiziell als Forscherin arbeiten damals und hat gesagt, ich glaube, dass die Maschine über numerische Berechnungen hinausgehen kann und in der Lage sein wird, Musik oder Kunst zu schaffen, wenn sie mit den entsprechenden Algorithmen programmiert wird. Das ist schon beachtlich. Da sieht man, dass da schon sehr viel Intelligenz der Menschen dahintersteckt.
Das ist ein vom Menschen geschaffenes Konstrukt. Die KI kann, wie gesagt, sehr komplex, und das sind Unmengen, also der Code ist Unmengen an Seiten lang, füllt ganze Bibliotheken, ist sehr komplex natürlich aufgebaut und ist für uns auch, also es ist eine Whitebox, keine Blackbox, wir wissen, was drinnen steckt, aber es ist einfach zu sophisticated gebaut, zu komplex gebaut, als dass wir das noch verstehen würden. Aber Basis ist, generative KI kann auf Basis der Muster, des Trainingsmaterials, das sie hat, auf Basis verschiedener, nach Feintuning Geschichten und auch menschliche Interaktionen, wie zu Beginn hat es immer gegeben, den Daumen rauf, den Daumen runter. Auch das ist eine Machine Learning Methode, die kann sie natürlich immer besser mit diesen Daten umgehen und kann immer besser den Output erzeugen, den wir gerne hätten. Jetzt reden wir aber nur von der generativen KI. Klassische KI funktioniert ein bisschen anders. Die beschreibt die Dinge, die sie sieht, die sie vorher beschrieben habe.

Stefan Lassnig
Bei der generativen KI fällt ja auf, dass speziell jetzt bei large language models, wenn man da was fragt und dann kriegt man eine falsche Antwort und man sagt dann, die Antwort stimmt nicht, dann kommt eh schon eine Korrektur von dieser Antwort. Also darin erkennt man, dass diese Wahrscheinlichkeiten dann durchaus in mehreren Stufen ausgespielt werden.

Barbara Herbst
Exakt, genau. Das ist relativ komplex, das werde ich jetzt nicht erklären. Wenn es wen interessiert, bitte anrufen, bitte schreiben.
Aber ganz genau. Und das ist natürlich auch ChatGPT. 3. Mai. Das 2022 veröffentlicht worden ist und mit dem wir sozusagen alle in Kontakt getreten sind. Und chatgpt jetzt vier O oder die Miniserien oder die Einser, die es jetzt schon gibt, Gemini von Google oder europäisches Produkt Mistral, haben gar nichts mehr damit zu tun. Da haben jede Menge Entwickler mit diesen Trainingsdaten, also die Anwendungsdaten, die Userdaten von uns schon fein getunt und die Systeme verbessert.
Deshalb schreibt da die KI, entschuldigt sich nicht mehr so oft und schreibt sozusagen zurü ah, OK, verstanden, ich werde das anders formulieren. Fakt ist, trotz dieser verbesserten Entwicklerleistung weiß die KI immer noch nicht, was sie sagt. Das kann richtig oder falsch sein, darauf ist sie nicht programmiert. Das verwechseln sehr viele. Ist mir auch wichtig immer zu sagen, ChatGPT ist keine Suchmaschine. ChatGPT ist eine Textgenerierung oder Bild inzwischen oder Video, kann die ja mittlerweile alles. Aber diese Sprachmodelle produzieren, ob er richtig oder falsch ist, ist nicht im Trainingsprogramm und im Algorithmus enthalten.

Stefan Lassnig
Was da ja auch besonders interessant ist, finde ich, du sagst, es ist jetzt, also es ist keine Suchmaschine. Das heißt, diese menschliche Intelligenz, die Antworten einzuordnen, sind nach wie vor sehr stark gefragt.

Barbara Herbst
Das ist aus meiner Sicht eine Schlüsselqualifikation, die uns Menschen bleibt und mit der wir ins KI Zeitalter einsteigen müssen. Je besser man sie in seinem Fachgebiet auskennt, desto besser wird man mit generativer KI arbeiten können. Das heißt, ich trainiere Lehrlinge und eine der Fragen, die ich dort immer stelle, ist wozu noch anstrengen, wenn die KI eh die Weltherrschaft übernimmt? Ist eine Dystopie und kommt meistens von den Schülern oder halt von den Lehrlingen. Und meine Antwort deshalb ihr müsst euch deshalb anstrengen, ihr müsst deshalb was lernen, ihr müsst einen Beruf erlernen, weil ihr mit Sicherheit systemisch und systematisch euer Leben lang, euer Berufsleben lang mit KI arbeiten werdet. Das wird nimmer weggehen. Ob es immer nur unterstützend ist, ist die eine Frage oder ob die Agenten sozusagen ganze Rollen übernehmen.
Aber eine Schlüsselqualifikation ist kritisches Denken, ist Bildung, klassische Bildung, der bildungskanon Schulen, Ausbildungsstätten. Ganz wichtig. Dazu kommt noch das Wissen um AI Literacy, also wie funktioniert KI und Kreativität. Also da gibt es auch vom World Economic Forum, das hat heuer Core Skills bis 2000 dreiig sozusagen definiert. Und da ist eine ganz wichtige Geschichte, kreatives Denken, Motivation, Leadership, systemisches Denken, analytisches Denken, kritisches Denken, Resilienz, Flexibilität. Ganz wichtige Schlüsselqualifikationen für uns Menschen, um gut und langfristig neben der KI bestehen zu können.

Stefan Lassnig
Es ist ja so, dass diese Large language Models ja eine Ausprägung von KI sind. Nach meiner Einschätzung nach sind die aber deswegen so beliebt und werden auch extrem viel genutzt inzwischen, weil sie gewisse Menschlichkeit vortäuschen. Aber sie funktionieren wie ein menschlicher Dialog. Du stellst eine Frage und kriegst eine Antwort. Ich habe angekommen das Gefühl, das löst natürlich auch mehr Vertrauen aus. Wenn du in der Suchmaschine was eingibst, hast du das Gefühl gehabt, du kriegst Suchergebnisse raus. Aber wenn ich dich jetzt was frage, dann listest du mir ja nicht verschiedene Sachen auf, sondern du gibst mir eine konkrete Antwort, die wohl formuliert ist.
Und ich hab manchmal das Gefühl, das verleitet dazu, das viel ernster zu nehmen, weil es in einer schönen formulierten Variante daherkommt als Frage Antwort Spiel.

Barbara Herbst
Die Entwickler dieser KI sind sehr klug, sehr smart und das ist natürlich ein Teil, der programmiert worden ist. Es soll ja Lust machen, mit dieser Maschine zu sprechen und zu kommunizieren. Und da haben wir sehr viel diskutiert, wie viel Zufall und wie viel Absicht hinter diesem spielerischen Moment steckt, weil Menschen langweilen sich, wie du sagst, wenn es da immer nur bullet Points gibt oder Stichpunkte gibt, fad, ob ich das nochmal nehme. Und jetzt wird das ein richtig spannender Dialog, besonders wenn man der KI eine Rolle vergibt und sagt, okay, du bist jetzt meine beste Freundin, mein bester Freund, irgendwas, berate mich doch in dem und dem Teil noch einmal. Die ki weiß nicht, was sie tut, aber es ist angenehm, amüsant, unterhaltsam mit ihr zu sprechen.

Stefan Lassnig
Jetzt, das ist eine gute Überleitung zu meinem zweiten Demiblock, nämlich zu den Gefahren oder zu den immanenten Stolpersteinen, die da drinnen liegen können. Ich möchte gerne die Frau Professorin Sabine Köschigi von der TU Wien zitieren, die warnt nämlich, wenn wir Texte schreiben, Bilder erstellen oder Entscheidungen nur noch mit Hilfe von KI treffen, dann denken wir irgendwann selbst weniger. Das nennt man kognitives Auslagern. Siehst du diese Gefahr der kognitiven Auslagerung auch?

Barbara Herbst
Es ist lustig, dass du genau dieses Thema ausgewählt hast, weil wir haben, die Frau Professor und ich, durften vor nicht allzu langer Zeit bei der Austria Presse Agentur genau über dieses Thema diskutieren miteinander. Und da sind wir uns sehr einig, es besteht, also sie kann es auch noch mit Studien belegen, hat selber auch eine Studie dazu angefertigt, diese Gefahr des cognitiven, kognitiven Auslagern, die besteht. Aus meiner Sicht ist es reale Gefahr. Wir verlassen uns zu sehr auf die Fähigkeiten der KI und wer gut mit der KI umgehen kann, wird schneller sie ein Ergebnis ausspucken lassen von der KI, zu dem er eigentlich so überall in der Lage wäre. Aus Bequemlichkeit. Wir sind einfach bequem. Und dann rechtfertigt man sich und sagt, okay, ich hätte eigentlich 1 Stunde gebraucht, die spuckt mir das in 10 s aus und das passt schon.
Aber man soll sich dieser Gefahr schon bewusst sein.

Stefan Lassnig
Umso wichtiger sind dann diese Grundskills, die du davor genannt hast, weil die wirken ja dieser Gefahr entgegen.

Barbara Herbst
Deshalb habe ich gerade die Denkpause gemacht, weil ich wollte gerade sagen, dass diese kognitiven Fähigkeiten wie kritisches Denken natürlich auch verlustig gehen, wenn man bequem wird. Deshalb muss man, vielleicht kann man es am besten vergleichen mit Fitnessstudio oder täglichem Sport, die Muskeln erschlaffen, Gehirn ist auch ein Muskel. Das muss man sich schon aktiv bewusst vor Augen führen. Und wenn man mit der KI arbeitet, gehört dieses Training, Gehirntraining dazu.

Stefan Lassnig
Ich sehe eine große Gefahr darin, dass die KI, und ich hab's davor schon angedeutet, mit dem Gesprächsmodus zunehmend da redet vor allen Dingen von den large language Models, zunehmend vermenschlicht wird. Du hast jetzt auch schon gesagt, der KI wird eine Rolle zugewiesen, z.B. als beste Freundin oder bester Freund, Beraterin, Berater, was auch immer. Du hast mir sogar mal gesagt, dass bestimmte menschliche Eigenschaften auch von KI reproduziert werden. Z.b. wenn eine KI einen Text erstellt, einen langen Text, dann ist der Anfang und Ende meistens sehr gut und dieser Mittelteil nicht so gut.

Barbara Herbst
Lost in the middle Effekt.

Stefan Lassnig
Genau. Ich habe noch immer gewusst, wie der Effekt heißt. Lost in the middle.

Barbara Herbst
Genau, genau. Ich weiß nicht, wie lang der noch, besonders bei den sehr guten Modellen jetzt noch gültig sein wird. Aber das besagt nichts anderes, als dass die KI natürlich, also die Sprachmodelle jetzt haben ein Kurzzeitgedächtnis, die meisten merken, unter Anführungszeichen, sind nur, was in einem Chatverlauf ist. Agenten brauchen z.B. ein Gedächtnis, an dem arbeitet man massiv, dass Sprachmodelle auch ein Gedächtnis bekommen. Da wird es mit dem Lost in the middle effect schon ein bisschen anders, aber derzeit ist es so, die merken sich sehr gut, darauf muss man Rücksicht nehmen. Wenn man sich ganz lange Texte zusammenfassen lässt, dann nimmt die KI meistens was von vorne, was von hinten und in der Mitte.
So wischiwaschi würde ein Mensch vermutlich auch nicht anders machen, wenn er an 900 Seiten Text hat und sagt, na, ich seit ungefähr 100 bis 800, lass ich mal aus.

Stefan Lassnig
Aber es ist wichtig zu wissen, wenn man damit arbeitet.

Barbara Herbst
Genau, genau, genau. Es sind sehr viele Feinheiten, die wichtig sind. All das ist auch wichtig, dass man lernt. Ich darf ja bei der APA die AI Literacy Schulungsprogramme mitgestalten. Und da legen wir schon sehr viel Wert darauf, dass man KI versteht, dass man weiß, was man tut, wenn man KI anwendet. Und Das Ziel ist immer, Menschen gut und sicher mit KI arbeiten zu lassen und uns vor allem nicht den Verstand rauben zu lassen im Sinne von Core skills.

Stefan Lassnig
Und wenn man jetzt, du hast das Voju verwendet, in der Dystopie noch einen Schritt weitergeht, dann gibt es ja den Begriff der technologischen Singularität. Das heißt, das wird definiert als jener Zeitpunkt, zu dem die künstliche Intelligenz die Menschen Intelligenz übertrifft. Gibt es so einen Punkt deiner Einschätzung nach oder wird es den irgendwann geben?

Barbara Herbst
In Science Fiction Filmen ja, in der Literatur ja schon lang. Hat uns immer amüsiert. Ich habe sehr gerne Herbert George Wells gelesen, ganz toll, also ein Klassiker. Aber von der Realität ist es weit, weit, weit entfernt. Immer wenn jetzt jemand von AGI, also superintelligent spricht, die ja genau das meint, dann meint er seine Vision, dann meint er das Ziel, dann meint er, worauf sie hinarbeiten. Aber derzeit sind wir noch weit, weit entfernt. Und ich finde, wir sollten uns auf die heutige KI konzentrieren, sie sinnvoll, ethisch und sicher für unsere Aufgabenstellungen nutzbar machen.
Und wichtiger als diese Spekulationen sind für mich jetzt robuste ethische Leitplanken und regulatorische Rahmenbedingungen, wo wir in Europa, finde ich, mit dem AI Act schon etwas vorlegen.

Stefan Lassnig
Also du kannst mit der Einschätzung, die habe ich auf Wikipedia, glaube ich, gefunden, vom Statistiker i. J. Good, der hat 1965 nämlich gesagt, die erste ultraintelligente Maschine, also die Superintelligenz, ist also die letzte Erfindung, die der Mensch zu machen hat. Das siehst du nicht so dystopisch.

Barbara Herbst
Das wird also da hat er sicher recht. Nur von dieser letzten Erfindung sind wir noch weit weg.

Stefan Lassnig
Aber du haltest nicht für ausgeschlossen, dass es irgendwann so weit sein könnte.

Barbara Herbst
Da müssen so viel parameter dazukommen. Und die Frage ist, ob man das will. Ich erinnere nur an den Aufschrei von führenden Entwicklern aus den USA, die gesagt warnen, Geoffrey Hinton bei der Nobelpreisverleihung hat gesagt, Finger weg von solchen Dingen, weil wenn sie etwas verselbstständigt, das wir nicht ganz durchschauen. Und ich habe vorher gesagt, der Code, also die Algorithmen sind so lang und so komplex, wir wissen, wie sie gebaut sind, wir verstehen sie aber nicht. Und solange wir das nicht verstehen, glaube ich, ist es weiterhin nett, darüber zu lesen, unterhaltsam und spooky, gruselig manchmal. Aber der Fokus soll wirklich auf Rahmenbedingungen liegen, die eine sinnvolle ethische Nutzung zum Wohle der Menschheit möglich machen.

Stefan Lassnig
Wobei das natürlich immer unterstellt, dass das auch die Anwenderinnen und Anwender so sehen. Und wie wir wissen, es gibt ja nicht nur Menschen, die gute Sachen vorhaben. Also darauf, dass das nie in falsche Hände gerät oder dass nie jemand sagt, ich experimentiere damit, obwohl ich es eigentlich nicht sollte, die halte ich schon für realistisch. Also falls nicht alle nach diesen ethischen Maßstäben arbeiten werden. Ja, aber das können wir natürlich nur bedingt beeinflussen.

Barbara Herbst
Nur, also diese Kinderkrankheiten, dass man mit einer Märchenerzählung, Bombenbastelanleitung rausbekommen hat, wie zu Beginn, die sind schon längst behoben. Daran haben die wirklich intensiv gearbeitet. Ein Sprachmodell, das jetzt am Markt ist, sollte eigentlich robust sein auf Basis der vielen Millionen Nutzerinnen, die in den letzten zwei Jahren, ich habe jetzt die Zahl nicht mit, aber das Telefon hat 75 Jahre gedauert, um 100 Millionen Anwender und User zu haben. ChatGPT hat zwei Monate gebraucht, um 100 Millionen User zu haben. Er hat diese Unmengen an Daten, damals hat ja keiner gesagt, mit meinen Trainingsdaten bitte nicht, die sind ungefiltert in die Cloud zu den Entwicklern gewandert. Das war auch das Ziel, warum das freigeschalten worden ist für alle. Es war ein großer Labor und Testversuch, natürlich zum Nutze, weil all diese Systeme sind robuster geworden, sind stabiler geworden.
Und dass Anwender so einen großen Schaden anrichten können wie Entwickler, das ist noch nicht der Fall.

Stefan Lassnig
Nein, das wollte ich eh nicht sagen. Aber eben genau, man kann nicht ausschließen irgendwann einmal, dass Menschen Dinge entwickeln, die sie eigentlich nicht entwickeln sollten, aber dadurch, dass sie vielleicht gewisse ethische Standards nicht haben, dann daraus was entstehen kann. Aber das ist, glaube ich, mit allen Instrumenten, die wir so in Verwendung haben, auch im Alltag, die kann man entweder für was Gutes verwenden oder für was Schlechtes verwenden.

Barbara Herbst
Aber deshalb gibt es sozusagen Rahmenbedingungen, deshalb gibt es regulatorische Auflagen und die sind wirklich immens wichtig.

Stefan Lassnig
Ja, das ist ja die politische Dimension, finde ich, an dieser Diskussion. Und da ist ja zumindest auf EU Ebene einiges passiert. Du hast davor erwähnt, es ist mit dem EU Act versucht worden, einen gewissen Rahmen zu schaffen, gewisse Risikoabstufungen vorzunehmen und mit diesen Rahmenbedingungen auch ein bisschen in die Zukunft zu schauen, Dinge schon abzudecken, die sich vielleicht erst die nächsten Jahre entwickeln werden. Die Frage ist, ob es außerhalb der EU auch alle so machen. Würde ich jetzt einmal mit Nein beantworten. Aber wenn ich dich richtig verstanden habe, sagst du, wir sollten in erster Linie auf das schauen, was wir beeinflussen können.

Barbara Herbst
Sollten wir. Wir sollten aber Level Playing Field, also gleiche Rahmenbedingungen schaffen, weil wir ja nicht, also Europa ist zwar ein großer Wirtschaftsraum, aber nicht allein auf der Welt. China hat regulatorische Vorschriften, die natürlich sozusagen China auch nützen, klarerweise, aber die USA denken darüber nach. Also es wird schon erkannt, dass die KI gewisse Fesseln braucht, sagen wir es einmal so.

Stefan Lassnig
Damit würde ich gerne überleiten zum dritten Themenblock, nämlich sinnvolle Nutzung der KI. Du hast ein paar Stichworte schon angesprochen. Ein paar Fragen, die man, glaube ich, im Umgang mit künstlicher Intelligenz auf jeden Fall beachten sollte, ist z.B. wer die Verantwortung trägt für KI generierte Ergebnisse? Sei es jetzt in der Medizin, sei es in den Medien, wo auch immer. Es werden ja viele Dinge oder viele Ergebnisse KI generiert, aber irgendwo muss ja dann noch jemand die Verantwortung dafür übernehmen. Das kann in der Regel nur Mensch sein, ganz klar.

Barbara Herbst
Wir Die Verantwortung liegt immer beim Menschen, der, der die KI nutzt oder die Organisation, die die KI einsetzt oder der Entwickler, der die KI gestaltet und macht und feintunet. Deshalb ist es entscheidend, und darauf weise ich immer wieder hin, dass es in einem Unternehmen klare Prozesse gibt, Aufsicht gibt, eine menschliche Kontrollinstanz gibt. Unternehmen haben die Möglichkeit und die sollten sie nutzen, klare Richtlinien und Verantwortlichkeiten zu definieren, damit die Mitarbeiter an sicheren und nachvollziehbaren Einsatz haben und damit sie das nachvollziehen, damit sie sich sicher fühlen im Umgang mit der KI. Und da gibt es aktuell noch viel Luft nach oben. Das heißt, ehrlich gesagt, sind da noch sehr viele Unternehmen säumig. Und es ist an der stelle ein Appell, bitte macht Richtlinien. Bitte sagt den Mitarbeiterinnen, den Mitarbeitern, was es erlaubt.
Und wenn, und auch das kommt sehr oft vor, wenn ein Unternehmen bestimmte KI Tools freigibt und ein Mitarbeiter Mitarbeiterin sagt, okay, nutze im privaten etwas, das ist viel besser, dann muss es auch klar eine Stelle geben, mit der man das diskutieren kann im Unternehmen, die sagen kann, schaut euch das mal an, geht das compliance mäßig? Können wir das nehmen? Das ganz lustige war jetzt einmal in einem Unternehmen, es gibt ein europäisches Startup, Mistral, das mit OpenAI und Google mithalten kann. Und da war die Compliance so unabsichtlich, die sind dann sicher zur KI gegangen, wir wollten das einsetzen und das war gesperrt. Ausgerechnet das französische Produkt, das DSGVO konform war und viel besser zu uns passt, kulturell und auch von den Outputs her, war in dem österreichischen Unternehmen gesperrt. Ganz interessant. Und da muss es schon allen Mitarbeitern muss es eine Möglichkeit geben, dass man hingeht und sagt OK, das ist uns aufgefallen, gehört auf die todo Liste und das ist das nächste.
Es gibt keine Software, es gibt keine Technologie, es gibt nichts, was so sehr aufs Miteinander setzt wie die künstliche Intelligenz. Also sharing is caring und es stimmt, also man profitiert als Mensch, als Nutzer, als Anwenderin und als Entwickler davon, dass man Erkenntnisse teilt und die Möglichkeit sollte in Unternehmen sozusagen eingepreist werden oder mitgedacht werden, dass es z.B. monatlichen Austausch gibt, Formate gibt, wo man sie eben unterhält, wo man was Neues erfährt, wo man seine Erlebnisse und seine Erkenntnisse teilen kann.

Stefan Lassnig
Das mit sharing ist caring bezieht sich ja auch auf die auf die Trainingsdaten, du hast es eh schon angesprochen, also je mehr Trainingsdaten, je bessere Trainingsdaten, je validere Trainingsdaten in einer Datenbank drinnen sind, desto besser ist auch der Output. Das wird auch glaube ich noch vielfach unterschätzt, dass bestimmte Dinge natürlich sehr gut schon abgebildet sind im Datenvolumen und manche weniger. Und da wo weniger Daten da sind und weniger Trainingsdaten aus welchem Grund auch immer zur Verfügung gestellt worden sind, sind die Ergebnisse deutlich schlechter.

Barbara Herbst
Da muss man unterscheiden. Ich werde jetzt keinen Appell machen, dass jemand seine Anwendungsdaten, also die Userdaten kostenlos zur Verfügung stellt, ganz sicher nicht. Aber da muss man unterscheiden. Es gibt pre Training, also diese Daten, mit denen die KI trainiert worden ist, die hat natürlich in unserem angloamerikanischen, europäischen Sprachgebrauch, also die OpenAIs sind zwischen 80 und mehr als 90 % mit amerikanischen Inhalten gefüttert. Das heißt, will man was Chinesisches haben, will man was Südamerikanisches haben, dann muss man damit rechnen, dass das verzerrt dargestellt wird, weil der Löwenanteil der Daten sich auf das nicht bezieht. Detto sind es Geschlechtergleichheiten, ethische Standards. Z.B. in den er Jahren gab es mehrere Kinderbücher, die wir unseren Kindern nicht mehr vorlesen würden, weil sie nicht mehr ethisch, nicht mehr Minderheiten nicht respektiert, so wie wir das jetzt respektieren.
Und wenn du aber die KI ist damit gefüttert, klarerweise, also wenn es Urheberrecht frei ist, kann es sein, dass das bei den Büchern aus den er Jahren noch nicht der Fall ist. Dann sind die aber drinnen, die spuckt das aus und die Einordnung dessen ist eine Verzerrung. Aus heutiger Sicht, also wie Natur als Rothaut bezeichnen, ist eine Verzerrung. Macht niemand.
2025, 1970 bis 60, 60 bis 70 hat das jeder gemacht. Und dann gibt es noch die Trainingsdaten an sich, also die User Daten. Und wenn man da sagt okay, mit meinen Daten möchte ich nicht, möchte ich nicht, dass die KI weiter trainiert wird, dann ist es dein gutes Recht als Anwender zu nein. Das bedeutet aber auch, wenn nichts gratis ist, du wirst für dein Modell bezahlen müssen, weil du zahlst entweder mit Daten, also mit dir selber, oder du bezahlst mit Geld. Irgendwas wird es kosten. Wenn du sagst okay, ich möchte das nicht, dann musst du Bezahlversionen verwenden. Aber und das stimmt, und jetzt kommen wir wieder zurück zu dem, was du gefragt hast, die Qualität und die Herkunft der Trainingsdaten ist natürlich absolut entscheidend.
Da gibt es einen amerikanischen Ausdruck Garbage in, Garbage out. Also wenn man Müll reinwirft, kommt Müll raus. Ist so. Und schlechte, unvollständige, verzerrte Daten führen also unweigerlich zu schlechten und unfairen Ergebnissen. Und deshalb ist es wichtig, dass man Prinzipien definiert, Transparenz, Ferne, Sicherheit, Verantwortlichkeit und ganz klar damit umgeht und transparent damit umgeht, wie KI generierte Inhalte gekennzeichnet werden, welche Trainingsdaten drinnen sind. Der AI Act zieht es im übrigen vor, dass man die Trainingsdaten veröffentlicht. Bis dato ist nur der Trainingssatz von GPT drei veröffentlicht.
Alles, was unlizenziert und frei verfügbar im Internet vorhanden war, ist da drinnen. Danach wurde nie wieder ein Trainingsdatensatz veröffentlicht. Und das, finde ich, muss sich schon ändern. Das ist wichtig.

Stefan Lassnig
Transparenz ist, glaube ich, überhaupt ein großes Stichwort, oder? Sowohl was die Trainingsdaten betrifft, als auch was die Algorithmen betrifft, als auch was die Kennzeichnung von Ergebnissen betrifft. Ich glaube, Transparenz ist ein großes, ein großes Stichwort im Umgang mit KI.

Barbara Herbst
Transparenz schafft Vertrauen. Also wenn du in deinem Unternehmen KI einsetzt, dann möchte ich als deine Kundin wissen, wofür, welches Modell und zu welchem Anteil. Das würde ich ganz gerne wissen. Also wie viel Mensch steckt noch in deinem Produkt?

Stefan Lassnig
Anderer Begriff, der jetzt mir immer wieder untergekommen ist in letzter Zeit, weil wir uns bei uns im Unternehmen, im Podcast Unternehmen ja auch mit dem Thema KI intensiv auseinandersetzen, war viele Medienunternehmen, aber ich gehe davon aus, auch andere Unternehmen arbeiten nach dem oder stellen dann immer den Begriff human in the loop noch mit dazu. Also ist auch in dieser ganzen Wertschöpfungskette, so nenne ich es jetzt einmal, ist da noch irgendwo ein Mensch involviert oder nicht? Die meisten Medienunternehmen, ernstzunehmenden Medienunternehmen, die ich kenne, sagen alle, es muss mindestens einen.

Barbara Herbst
Jungen in die Loop geben, mindestens einen. Das ist ganz wichtig. Das heißt ja nichts anderes wie eine menschliche Kontrolle. Wenn man den weglässt, dann macht man die KI tatsächlich zum Akteur, gleichrangig wie ein Mensch, wie ein Mitarbeiter. Das Thema wird massiv virulent jetzt, wenn es immer mehr Agenten gibt, also immer autonomere, flexiblere Systeme, das meint Agenten sein, also die ganze nicht nur bei einer Aufgabe unterstützen, also Text verfassen oder E Mail schreiben oder Bilder generieren, sondern tatsächlich ganze Prozesse abbilden, also Berichte von der Recherche bis zum fertigen Logo einfügen, bis zum Konfektionieren sozusagen in einem Durchlauf machen. Und an der Stelle ist besonders für Medienunternehmen sollte ein Gutteil der Nachdenkarbeit oder der strategischen Arbeit darin liegen, zu erkennen, an welcher Stelle ein Mensch in diesen magentischen, autonomen, flexiblen Prozess eingreifen sollte. Ich teste gerade einen Agenten, einen chinesischen Agenten, der Sandbox System hat, also abgedichtet ist und offenbar keine, also versprochenerweise keine Daten nach China liefert.
Ich gebe eh keine sensiblen Daten ein. Und der hat die Möglichkeit, den Human and Loop zu definieren, also die Eingriffspunkte zu definieren. Da füllst du zu Beginn sozusagen aus, in der Handhabung, an welchen Stellen du eingreifen möchtest. Das heißt nichts anderes, dass die KI stoppt in ihrem Prozess, wo sie auch immer sie steht, entweder in der Recherche, in der Wahrnehmung oder schon in der Verarbeitung und dich fragt, ob das soweit passt oder ob du hier Änderungen haben möchtest oder ob du andere Fragen stellen möchtest. Und jetzt ist es die Minimalvariante von Human and the Loop. Die eigentliche Geschichte ist nur, beim agentischen Workflow ist es so, da kriegst du nach einem Prozess wirklich fertige Geschichte, beim anderen ist es eine output Kontrolle. Und zu dieser Denkarbeit, wo der Mensch eingreifen soll und welche Positionierung der Mensch in diesem Unternehmen, in deinem Unternehmen haben soll, gehört dazu, dass man sie strategisch überlegt.
Will ich die KI weiterhin unterstützend haben oder will ich sie als Teil des Teams haben? Welche Rolle, wenn du jetzt jemanden einstellst, machst du es ja ähnlich. Du sagst Junior, Senior, Praktikant oder sogar in die Geschäftsführung. All diese Rollenvergaben kannst du natürlich oder solltest du auch für die KI machen. Und bei einer unterstützenden Rolle der KI ist klar, dass das human in the loop am Ende ist. Bei einer Senior Position ist die Frage.

Stefan Lassnig
Ich finde den Ansatz, den du geschildert hast, dass man bereits im Prozess, in Vorstufen die Möglichkeit hat, einzugreifen, sehr interessant, weil sonst kriegst du ja ein Endergebnis, das du dann zwar auch noch überprüfen kannst, aber dir fehlt ein bisschen die Prozesskontrolle. Dazu finde ich spannend, dass es da schon Ansätze gibt, dass man schon früher mit diesem Human in the loop einsetzt. Also im Prozess schon.

Barbara Herbst
Ja, bei dieser Funktion muss man sich halt im klaren sein, dass das das Modell selber anbietet. Das heißt, ist das auch, also das muss man auch kritisch hinterfragen. Wie gesagt, ich bin gerade in der Testung, ich fand das sehr interessant und die KI hat jedes mal an der Stelle, wo ich gesagt habe, aufgehört zu arbeiten und hat Stopp. Dann kriegst du Benachrichtigung und kannst wieder zurückschauen. Es ist ein bisschen wie mit einem Assistenten arbeiten, den man noch nicht gut kennt. Die Frage ist, ob das ausreicht. Also ich würde mal meinen, dass diese plug and Play Lösungen ganz interessant sind für den jetzigen Zeitpunkt.
Wenn man sie strategisch und systemisch einsetzt, glaube ich, dass man sie tiefer mit der Materie auseinandersetzen muss und dass man dieser Frage Endkontrolle oder an welchen Stellen im Prozess brauche ich einen geschulten Mitarbeiter, menschlichen Mitarbeiter? Dieser Frage soll man sich ganz intensiv widmen.

Stefan Lassnig
Spielt es das Thema Literacy ein? Du hast es eh schon heute mal gesagt, dass diese Literacy zu fördern eine der Hauptaufgaben sein wird in den nächsten Jahren, vielleicht Jahrzehnten. Also lehren, wie KI funktioniert, verstehen, wie.

Barbara Herbst
KI funktioniert, das ist ganz, ganz, ganz, ganz wichtig. Es wird wirklich eine Transformation in den Unternehmen geben. Und damit wir Menschen andere Aufgaben im Unternehmen nicht nur erhalten, sondern bekommen, es wird sich alles splitten, ist es ganz wichtig, dass wir wissen, was die KI tut. Nur dann ist ein Teamplay wichtig. Es gibt Manager, die sagen, die Generation jetzt, die Manager sind, ist die letzte Generation, die nur Menschen geführt hat. Die nächste Generation wird auf jeden Fall schon Maschinen und Menschen führen in einem Team. Und damit der Team performt, muss es stärken und schwächen des jeweils anderen sehr gut kennen.
Es wird andere Form von Teambuilding geben. Bei einer Storming Phase in dem Sinn wird es nicht geben, weil wie soll man sie mit einer KI matchen oder streiten oder ernsthaft diskutieren. Aber was bleiben wird, ist, dass man die Stärken und Schwächen des anderen Teils der Maschine oder der Menschen ganz gut definiert und damit recht gut umgehen kann. Vor allem für Führungspersönlichkeiten ist das wichtig.

Stefan Lassnig
Das finde ich sehr interessant, weil ich habe nicht das Gefühl, dass das Bewusstsein da ist, dass wir jetzt darauf hinarbeiten sollten alle, dass wir als Managerin oder Manager Menschen und Maschinen führen, sondern ich habe das Gefühl, das mit Menschen führen ist klar, das ist gelernt, aber beim anderen habe ich oft das Gefühl, man ist noch in der Phase, dass man sagt, nein, ich probiere da eh ein bisschen nein, das machen wir eh auch im Unternehmen und wir haben da eh auch schon einmal was eingegeben in ChatGPT. Also richtiges, ernsthaftes Befassen damit, so wie das, was du jetzt sagst, dass man sich z.B. Überlegt, okay, welche Stärken sind da und welche Schwächen sind da?
Und zwar auf menschlicher wie auf Computerseite. Also so systemische Auseinandersetzungen würde ich jetzt in den wenigsten Fällen bemerken.

Barbara Herbst
Ja, die Einschätzung teile, aber es gibt, also ich habe jetzt das Glück, dass ich vielleicht auch, weil ich mich intensiv mit dem Thema beschäftige und auch KI Gutachterin zertifizierte bin, gibt es schon Anfragen an mich, genau dieses Thema Personalabteilungen werden strategische Abteilungen werden, glaube ich. Also die reine Personalverwaltung, die es eh schon fast nirgends mehr gibt. HR verstehen sich sinnvollerweise und auch ehrenwerterweise schon lange mit Personalentwicklung, aber haben immer noch so ein bisschen zu kämpfen, gerade im KI Zeitalter, mit dem Stellenwert, den sie haben gegenüber der Geschäftsführung und gegenüber der IT Abteilung. Und ich glaube, die Aufwertung der Personalabteilungen zu strategischen Abteilungen, die sich genau um das kümmern, genau um das welche Aufgabe, welche Funktion haben Menschen bei uns im Unternehmen? Welche Aufgaben übernimmt die KI und wie bilde ich meine jungen Führungskräfte aus, damit sie dieses Teamplay ganz gut hinkriegen? Genau das steigt, der Bedarf steigt und auch das Interesse daran steigt. Das merke ich schon stark.
Schon die ersten Kunden, die sich dafür interessieren.

Stefan Lassnig
Ja, ich möchte jetzt eh nicht sagen, dass es niemanden gibt, der sich damit beschäftigt, aber wir stehen doch sehr am Anfang an einer Entwicklung. Aber ich finde den Gedanken von dir höchst interessant zu sagen, die Richtung ist, dass wir in einem neuen Teamgedanken denken müssen. Das habe ich in der Form jetzt noch nie gehört, aber das finde ich extrem faszinierend, weil das wird vieles verändern, ist für mich aber total greifbar, weil sonst ist ja oft das okay, was wird das für uns, für unser Unternehmen, für unsere Zusammenarbeit bedeuten? Das ist oft sehr unklar und es ist ja logisch, wir wissen ja noch nicht wirklich, was passieren wird. Aber der Gedanke, dass es beides geben wird, ich glaube, mit dem sollten wir uns auf jeden Fall mal anfreunden. Und dann bleibt eigentlich die Frage, die du jetzt aufgeworfen hast, naja, aber wer macht dann Welche Aufgabe und wie hängt das miteinander zusammen? Das finde ich extrem spannend.
Vielleicht auch zum Schluss noch ein Begriff, der vielleicht da jetzt eh ganz gut dazu passt, weil es wird ja oft vom digitalen Humanismus gesprochen, also das ist auch so ein Passwort, das im Zusammenhang mit der K oft genannt worden ist, Zeit. Ich habe mir natürlich dafür KI generierte Definition rausgesucht. Und die Laute digitaler Humanismus ist ein Ansatz, der die Entwicklung und Anwendung digitaler Technologien auf eine Weise gestaltet, die den Menschen und seine Bedürfnisse in den Mittelpunkt stellt. Er betrachtet die sozialen, kulturellen und ethischen Auswirkungen der Digitalisierung, strebt an, die Menschlichkeit und Würde in der digitalen Welt zu fördern. Klingt gut, finde ich, und klingt auch nach einer guten Richtschnur für uns alle im Umgang mit künstlicher Intelligenz. Oder hättest du da noch was zum ergänzen?

Barbara Herbst
Ich freue mich besonders, dass du das Thema ansprichst, weil ich habe mich sehr früh für KI und Ethik interessiert und hab einen sehr langwierigen Zertifizierungsprozess bei einer globalen Standardisierungseinrichtung angestrebt, die heißt IEE und die beschäftigt sich genau mit dem Thema, dass Technologie den Menschen dienen sollen und nicht umgekehrt. Es geht wirklich darum, sicherzustellen, dass wir die Technologie so gestalten und einsetzen, dass sie unsere menschlichen Werte, unsere Würde und vor allem die Gesellschaft, in der wir leben wollen, positiv unterstützt. Das klingt so pathetisch und das könnte man sozusagen als Präambel irgendwo hinschreiben. Wenn man das aber wirklich lebt und sie anschaut, technisch unterbricht, und das ist sozusagen Teil meiner Gutachterausbildung gewesen, da lernst du KI Systeme danach zu beurteilen, auf Fairness, auf Transparenz, auf algorithmische Verzerrungen und auf Menschenwürde. Und verlangst dann wirklich von den Unternehmen den Beweis dafür zu liefern, dass die KI eben keine Menschenwürde verletzt, keine Verzerrungen darstellt im Einsatz und dass sie positive Ziele verfolgt, deine, den Mehrwert aber auch insgesamt. Und das ist eine Philosophie, die ich mir zum Ziel gesetzt habe bei Enable, den Menschen und seine Bedürfnisse in den Mittelpunkt zu stellen. Und die KI als Werkzeug ist es jetzt noch kann sein, dass Akteur wird, für eine bessere Zukunft zu nutzen.
Und das bedeutet, die sozialen, kulturellen und ethischen Aspekte immer mitzudenken bei jeder Anwendung und sei es ja nur so klein.

Stefan Lassnig
Und damit wären wir ja wieder bei dem Punkt, wenn man das, wie du gesagt hast, jetzt so im Nebensatz sie könnte auch zum Akteur werden, aber auch Akteure kann man kontrollieren, kann man miteinander verbinden, kann man Aufgaben zuweisen und so weiter. Das könnte dort auch eine gute Richtung und auch Akteure können humanistisch oder nicht humanistisch handeln. Also das würde dann gar keine große Unterscheidung mehr machen.

Barbara Herbst
Genau, das wird unser Scheidepunkt, das wird unsere Herausforderung sein.

Stefan Lassnig
Gut, schönes Schlusswort. Danke Barbara, für deine Zeit und deine Expertise.

Barbara Herbst
Danke vielmals für die Einladung. Danke, Stefan.

Stefan Lassnig
Bis zum nächsten Mal. Pfiat eich.

Autor:in:

Stefan Lassnig

Sie möchten diesem Profil folgen?

Verpassen Sie nicht die neuesten Inhalte von diesem Profil: Melden Sie sich an, um neuen Inhalten von Profilen und Orten in Ihrem persönlichen Feed zu folgen.

Eine/r folgt diesem Profil

Video einbetten

Es können nur einzelne Videos der jeweiligen Plattformen eingebunden werden, nicht jedoch Playlists, Streams oder Übersichtsseiten.

Abbrechen

Karte einbetten

Abbrechen

Social-Media Link einfügen

Es können nur einzelne Beiträge der jeweiligen Plattformen eingebunden werden, nicht jedoch Übersichtsseiten.

Abbrechen

Code einbetten

Funktionalität des eingebetteten Codes ohne Gewähr. Bitte Einbettungen für Video, Social, Link und Maps mit dem vom System vorgesehenen Einbettungsfuntkionen vornehmen.
Abbrechen

Beitrag oder Bildergalerie einbetten

Abbrechen

Schnappschuss einbetten

Abbrechen

Sie möchten selbst beitragen?

Melden Sie sich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.