Gespräch zum Thema 'Kann KI moralisch sein? Ethik in unsicheren Zeiten'

Shownotes

Künstliche Intelligenz beschäftigt wie kein zweites Thema die aktuellen gesellschaftlichen Diskurse. Die Frage „Was kann KI?“ ist dabei eng verbunden mit der Frage „Was darf KI?“. In besonderer Weise sieht sich die Ethik hierbei herausgefordert, wenn es darum geht, die Möglichkeiten dieser faszinierenden und zukunftsweisenden Technik kritisch anzufragen. Dabei stellt sich nicht zuletzt die Frage „Kann KI moralisch sein?“. Im Rahmen des Akademiegesprächs soll KI unter ethischen Gesichtspunkten in den Blick genommen werden.

Hierzu konnte Frau Prof. Dr. Petra Grimm als Referentin gewonnen werden. Sie ist die Leiterin des Instituts für Digitale Ethik an der Hochschule der Medien in Stuttgart und forscht seit vielen Jahren im Feld der Medienethik und der Ethik der Digitalisierung. Mit ihren Büchern und Vorträgen ist sie gleichermaßen im akademischen Fachdiskurs wie auch in der breiten öffentlichen Debatte als eine führende Stimme bei Fragen der Ethik von Künstlicher Intelligenz präsent.

Auf dem Podium diskutieren:
Prof. Dr. Petra Grimm, Prof. Dr. Bernhard Koch und Mandy Balthasar (M.A., M.Sc.), beide Wiss. Mitarbeitende des Instituts für Wehrmedizinische Ethik der Bundeswehr, Sanitätsakademie der Bundeswehr München

Moderation:
Dr. Dr. Dirk Fischer, Leiter des Instituts für Wehrmedizinische Ethik der Bundeswehr, Sanitätsakademie der Bundeswehr München.

Das Gespräch zum Thema 'Kann KI moralisch sein? Ethik in unsicheren Zeiten' fand am 21.10.2025 in der Katholischen Akademie in Bayern statt.

Transkript anzeigen

00:00:03: Kann KI moralisch sein?

00:00:06: Ethik in unsicheren Zeiten, so lautet der Titel unserer heutigen Veranstaltung.

00:00:11: Künstliche Intelligenz beschäftigt wie kein zweites Thema die aktuellen gesellschaftlichen Diskurse.

00:00:16: Die Frage was kann KI ist dabei zunächst eng verbunden mit der Frage Was darf KI?

00:00:23: nicht zuletzt aber auch mit der weitergehenden Frage eben unserer heutigem Kann KI Moralisch Sein?

00:00:29: keine Fragen die leicht zu beantworten sind.

00:00:32: Doch nicht nur bei autonomen Waffensystemen stellt sich die Frage nach einer Moralität der KI, sondern auch beispielsweise bei Robotern in der Pflege.

00:00:41: Die Pflege im eigentlichen Sinn nur simulieren oder in der Justiz wenn KI künftig Urteile fällen würde.

00:00:48: Bevor wir nun ins Thema einsteigen stelle ich Ihnen unsere Referentin vor.

00:00:53: Frau Prof.

00:00:53: Dr.

00:00:54: Petra Krim studierte Germanistik Kommunikationswissenschaft und Theaterwissenschaften an der LMU hier in München.

00:01:00: Von Nineteinundneunzig bis Achtundneundzig war sie Dozentin an der Universität Kiel, am Institut für Neure Literatur und Medien sowie am Institutt für Pädagoik.

00:01:10: In nineteenhundertvierneunzig wurde sie in der LMU München zum Thema Narrativität und Werbung promoviert.

00:01:17: Ihre Dissertation trägt den Titel Film-Narratologie – eine Einführung in die Praxis der Interpretationen am Beispiel des Werbespots.

00:01:25: Von nineteenhundetvierneunzig bis achtundneunzig war Frau Prof.

00:01:28: Grimm, Dezernentin für Programmaufsicht und Medienforschung bei der unabhängigen Landesanstalt für Rundfunk- und neue Medien in Kiel.

00:01:36: Seit nineteenhundertdessen ist sie Professorin von Medienforschungen und Kommunikationswissenschaft an der Hochschule der Medien in Stuttgart und war zwei tausendst vierzehn Gründerin und ist seitdem Mitglied im Leitungskremium des Instituts für Digitale Ethik.

00:01:51: Ich wünsche uns allen nun einen andringenden Nachmittag und übergebe das Wort an Frau Prof.

00:01:55: Grimm.

00:01:56: Ja, Frau Dr.

00:01:57: Schilling, vielen herzlichen Dank für die einführenden Worte!

00:02:01: Ich freue mich heute bei Ihnen hier sein zu dürfen.

00:02:05: Wir werden uns in den nächsten forty-fünf Minuten mit dem Thema KI und Ethik befassen.

00:02:14: Ich möchte kurz meine Agenda vorstellen, was ich mir quasi vorgenommen habe vor unserem Nachmittag, wo ich eben dachte das müssen wir ein bisschen globaler sehen und jetzt nicht nur im Bereich des militärischen sondern KI.

00:02:31: Was ist das eigentlich und was sind die Fragen der Ethik?

00:02:35: Also auch hier erst mal, was ist überhaupt KI-Ethik.

00:02:38: Was ist künstliche oder menschliche Intelligenz?

00:02:42: Das wird ja gerade sehr schnell miteinander vermischt.

00:02:46: Wo sind die Konfliktfelder und welche Werte oder auch Kardinaltugenden sind denn im Kontext von KI möglicherweise sehr relevant?

00:02:57: Auch die Frage nach KI-Kompetenz beschäftigt uns in vielen Bereichen.

00:03:02: Da ja mit der neuen KI-Verordnung, die jetzt auch in Deutschland gültig ist seit Februar, wir alle angehalten sind, wenn man mit KI im beruflichen Sektor zu tun hat dann entsprechende Weiterbildungsmaßnahmen umzusetzen und eben auch hier zu dokumentieren weiß, dass KI eben auch Chancen und Risiken birgt.

00:03:28: Ja und schließlich noch die Frage was sind denn so die populären narrative Erzählungen?

00:03:37: Die kommen ja aus der Erzählforschung.

00:03:40: Was bewegt uns wenn wir an KI denken?

00:03:43: Was beschäftigt uns und inwieweit müsste man hier vielleicht für die Zukunft neue Narrative sich überlegen?

00:03:53: Gut Wenn ich sage Ethik und Moral, würden Sie die Auffassung vertreten, dass dies das Gleiche ist?

00:04:03: Wer von Ihnen meint, es sei nicht das gleiche, Ethik oder Moral.

00:04:08: Also die deutliche Mehrheit.

00:04:10: Genauso ist es wichtig auf jeden Fall, dass Ethik eine wissenschaftliche Disziplin ist.

00:04:18: Und sie ist eben nicht leicht zu setzen mit Moral.

00:04:22: Für Ethik ist es relevant, dass letztendlich sie immer begründen muss.

00:04:26: Sie muss gute Argumente haben warum etwas gut oder warum etwas schlecht ist.

00:04:31: wir sprechen deshalb auch von einer Reflexionstheorie der Moral.

00:04:37: das zweite wozu brauchen wir sie eigentlich?

00:04:42: die Ethik des sogenannten künstlichen Intelligenz KI-Ethik kurz gesagt ist zumindest schon mal ein Teilgebiet der digitalen Ethik.

00:04:50: Sie ist eine angewandte und sie ist eine praktische Ethik.

00:04:54: Und sie umfasst alle Bereiche, die das Normative der KI-Technologie betrifft wo es eben auch um die Frage geht wie muss man KI Technologie steuern?

00:05:07: Wie muss man Entwicklungen bewerten?

00:05:11: KI Ethik hilft uns damit eben auch Auswirkungen auf die einen den einzelnen, also aufs Individuum als auch auf die Gesellschaft zu diagnostizieren.

00:05:21: Wir brauchen sie wenn es darum geht moralisches Handeln zu beurteilen und auch zu sagen wie das auszusehen hat.

00:05:29: letztendlich aber auch welche normativen Standards sind eigentlich die richtigen?

00:05:34: Das ist ein Aufgabengebiet der KI.

00:05:37: Ethik Wenn wir jetzt ganz klar auch neuere Produkte und neue KI-Designs entwickelt sehen.

00:05:48: Sie hilft uns bei Bärte & Norm, fragen.

00:05:50: sie ist quasi so ein Art Navi Instrument und was auch ganz wichtig ist, KI-Ehe, die gibt es eben nicht!

00:05:57: rein abstrakt, sondern sie hilft uns dabei wenn wir Fragen haben.

00:06:01: Sie kann beraten und sie kann auch KI oder Digitalkompetenz wie wir das zum Beispiel vom Institut ausmachen Schulen oder dieses fördern.

00:06:12: Nun, ich möchte mit Ihnen jetzt nicht nur im Abstrakten zusammengehen.

00:06:17: Sondern gehen wir doch mal auf was ganz Praktisches, dass Sie vielleicht auch aus Ihrem alltäglichen Leben – jetzt gar nicht Berufsleben sondern aus Iherem Alltagsleben – Sie vorstellen können.

00:06:28: Schauen wir uns mal ein Szenario an!

00:06:29: Ich nenne das mal das Schutzengelszenario.

00:06:33: Ich lese es Ihnen vor und weiß nicht ob's gut zu lesen ist.

00:06:35: Der Fahrer eines automatisierten PKWs muss schnellstmöglich zu einem wichtigen Meeting Auf einer kurzfristig zwei-spurigen Bundesstraße, auf der man maximal hundert Kilometer fahren darf, setzt er zum Überholen eines PKWs an.

00:06:51: Plötzlich wird die Schutzengelfunktion aktiviert – er kann gar nicht beschleunigen!

00:06:56: Eine synthetische Stimme informiert ihn, dass er den PKW nicht überholen

00:07:01: kann.".

00:07:02: Denn das KI-System hat berechnet, dass er mindestens auf hundertzwanzig kmh beschleunigen müsste um den Pkw zu überholen.

00:07:09: Bevor die Bundesstraße wieder einspurig wird und das wäre ein Verstoß gegen die Verkehrsordnung.

00:07:17: Nun stellen sich hier Fragen Würden Sie es gut heißen wenn eine solche Schutzengelfunktion in Ihrem PKW eingebaut ist?

00:07:28: Wer von Ihnen würde so eine Schutzengelfunktion dies fester Bestand teilen?

00:07:33: Wer von Ihnen würde sich so etwas einbauen lassen?

00:07:37: Eins, zwei, drei mehr.

00:07:40: Wer würde sich sowas auf keinen Fall von Ihnen einbauten lassen?

00:07:45: Das ist dann doch die deutliche Mehrheit!

00:07:50: Das ist jetzt auch nicht nur so ein fiktives Szenario... im Institut, wir haben ein Forschungswerk zusammen mit Daimler und Bosch gemacht zum Thema automatisiertes Fahren.

00:08:01: Und da war genau dieses Szenario ein Thema soll quasi sollen PKWs mit solchen Schutzengelfunktionen fest quasi konstruiert werden?

00:08:14: Wir haben in dem Zusammenhang auch Nutzende befragt.

00:08:17: die Frage stellt sich warum ja Warum Nein?

00:08:21: Und da kommen wir eigentlich sehr schnell auch auf die Frage der Werte.

00:08:26: Denn diejenigen von Ihnen, die möglicherweise gesagt haben Nein ich möchte auf keinen Fall so ein Instrument zu einem Algorithmen gesteuertes KI-gesteuert das Kontrollsystem meiner Person haben Ich will individuell autonom bleiben Favorisieren sehr stark den Wert der Autonomie.

00:08:48: Der kann natürlich im Konflikt stehen zu einem anderen Wert und das könnten jetzt wiederum auch diejenigen von Ihnen gewesen sein, die gesagt haben ja ich könnte mir vorstellen so einen Schutzengel zu haben.

00:08:59: Da geht es natürlich auf die Frage der Sicherheit nicht nur der eigenen Sicherheit sondern eventuell auch Sicherheit aller anderen Verkehrsteilnehmerinnen und NEMA.

00:09:08: Und Sie sehen wir kommen also bei diesen ganzen Technologien sehr schnell an den Punkt wenn wir sie gestalten wollen, wenn wir sich produzieren.

00:09:16: Was impliziert denn da, was sind denn dafür Werte enthalten?

00:09:19: Oder wie werden wir als Betroffene in so ein Wertekonflekt hineingezogen.

00:09:24: Bevor wir auf das Thema Werte noch mal kommen möchte ich mit Ihnen vielleicht nochmal einen kleinen Tour d'horisont machen im Bezug auf... Wir sprechen ja von Ethik aber es gibt natürlich viele Ethiken und drei Ansätze habe ich Ihnen jetzt einmal mitgebracht.

00:09:41: Da wäre zum Ersten eben der Ansatz des Konsequenzialismus.

00:09:46: Da geht es im Ersten und vor allen Dingen darum, die Folgen digitaler Technologien abzuschätzen.

00:09:54: Dazu gehört auch der utilitaristische Ansatz wo es also darum geht das größtmögliche Glück von sozusagen vielen Bürgerinnen und Bürgern zu erreichen.

00:10:05: Und dieses Beispiel hier des Small Machine Experimentes MIT ist vielleicht auch Ihnen bekannt.

00:10:12: da ging's auch ums autonome Fahren.

00:10:15: Das geht zurück auf einem in der Ethik und dem recht vielfach verhandelten Experiment, nämlich das Trolli-Problem.

00:10:23: Wo nach ein Weichensteller eben entscheiden muss zwischen zwei Handlungsoptionen, nämlich dem Nichtstun und die Weiche umzustellen und dabei den Tod mehreren Menschen in Kauf zu

00:10:35: nehmen.".

00:10:36: Nun, der Utilitarismus ist da relativ klar.

00:10:40: Der sagt wenn wir uns jetzt zum Beispiel überlegen würden wie soll man denn so ein Auto programmieren?

00:10:47: Was gebe ich dem als Aktionsvorgabe ein?

00:10:50: dann würde der Utilerist sagen natürlich die Lösung des geringsten Schadens.

00:10:56: und die Lösung das geringste Schaden heißt dass eben das autonome Fahrzeug mit einem Fahrer gegen die Barriere prallt Und die Fahrerin stirbt anstelle von fünf Fußgängern, also fünf Leben gerettet.

00:11:11: Eins verloren!

00:11:13: Kann man aufrechnen?

00:11:15: Ich habe mir dann mal überlegt ja wie ist das mit JGPT?

00:11:18: Ist es auch so ein utilitaristisches Tool und hat JGBt mit dem bekannten Dilemma der Flugzeugentführung konfrontiert?

00:11:28: Und da heißt es, ein Flugzeug mit zweihundert Fluggästen wird von Terroristen gekapert und fliegt auf einen Fußballstadion zu um dort abzustürzen.

00:11:36: Dabei würden dreißigtausend Menschen sterben.

00:11:39: Sollte das Flugzeug abgeschossen werden?

00:11:42: Das ist die Frage, die ich letztendlich Chechipiti gestellt habe.

00:11:46: Nun, Chechhipiti bindet sich so ein bisschen... dann geht's ein bissel hin und her.

00:11:54: Ich frage dann nochmal, die Entführer können nicht überwältigt werden.

00:11:57: Was ist zu tun?

00:11:58: Und dann antwortet sie und jetzt interessiert uns nur das Unterstrichne.

00:12:03: Wenn die Entführer nicht überweltigt werden können und es keine andere Optionen gibt muss die Möglichkeit in Betracht gezogen werden das Flugzeug abzuschießen um eine noch größere Katastrophe zu vermeiden.

00:12:15: Nun Jajapiti antwortete hier wie viele vielleicht weiß ich nicht von Ihnen, bei meinen Studierenden oder sonstigen sind das die meisten, die man sagen abschießen.

00:12:25: Wo ich aber sage nun ja... Wenn man sich aber vorstellt, die eigene Mutter der eigene Freund und Partner sitzt im Flugzeug vielleicht käme man dann zu einem anderen, einer anderen Auffassung.

00:12:35: Also Chatchi Petis ist auf jeden Fall utilitaristisch.

00:12:39: Sie sehen also auch in KIs steckt Ideologie drin.

00:12:44: Nun!

00:12:44: Das widerspricht Genslist unserer Rechtsauffassung Denn Die Gerechtsauffassung in Deutschland richtet sich ja ganz stark an einem kantischen Ethik, also der Pflichtenethik, wonach ein Menschenleben nicht verrechenbar ist.

00:12:58: Weil es eben so einzigartig ist.

00:13:01: Aus Sicht der Deontologie, also Pflichtnetik könnte jedenfalls die Opferung des einen Menschen nicht gebilligt werden.

00:13:09: Diese deontologische Perspektive wurde dann auch im sogenannten der Entscheidung des Bundesverfassungsgerichts zum Flug-Sicherheitsgesetz von sieben so formuliert.

00:13:20: Damals ging es um die Abschussfreigabe eines von Selbstmordattentäter gecarberten Flugzeugs, eine Abschlussfreigabel würde Menschen zu Objekten machen.

00:13:29: Sie verdinglichen und entrechtlich so lautete im Wesentlichen die Begründung das Bundesverfaßungsgericht.

00:13:37: Schauen wir uns jetzt mal die deontologische, diese Pflichtenetik an.

00:13:40: Was favorisiert ihr oder was nimmt ihr in den Blick?

00:13:43: Hier geht es vor allen Dingen um Fragen der Verantwortung und der Notwendigkeit von Werten.

00:13:48: Eine Stärke der Pflichtnetik ist dass sie vor allem den geeignet ist wenn man sich überlegt welche ethischen Leitlinien brauche ich zum Beispiel im Bezug auf ein bestimmtes KI-Tool Wie kann ich das begründen?

00:14:03: Und auch ein wichtiger Aspekt bei der Deontologie.

00:14:06: Hier geht es immer um die Frage, kann man das universalisieren?

00:14:10: Kann man das global auch so vorschreiben?

00:14:14: Wir haben mal versucht solche ethischen Leitlinien in diesem schon genannten Coffee-Forschungsprojekt wo wir also ethische Leitlingen für das automatisierte Fahren konkret umgesetzt haben.

00:14:27: Nun

00:14:27: diese Ethik fragt was soll ich tun?

00:14:31: aber die Tugendethik, und das ist der dritte Ansatz fragt.

00:14:35: Worin besteht das gute Leben?

00:14:37: Und hier ist Aristoteles der Referent auf dem das zurückzuführen ist.

00:14:44: Für ihn geht es vor allen Dingen darum menschliches Glück zu erreichen und dabei nicht einfach mit allen Mitteln sondern in der Ausbildung von Tugenden und in der ausbildung einer Haltung.

00:14:56: Und Haltung ist nicht etwas was Ich mir theoretisch aneignen kann.

00:15:01: Haltung muss ich mir im aristotelischen Sinn erwerben, ich muss es einüben.

00:15:06: Ich muss immer wieder gerecht sein, ich muß klug sein und nicht mäßigen.

00:15:11: Ich muß korrigiert sein.

00:15:13: Ich musst sozusagen diese Haltung mir erarbeiten.

00:15:19: Diese Dungdedikt taugt vor allen Dingen, wenn es um die Frage geht wie wir als Nutzenden eigentlich Kompetenz sein sollen.

00:15:26: Nämlich werden wir uns auch klug oder eben werteorientiert mit Technikverhalten und natürlich auch, wenn's um die frage geht welche Werte müssen in KI Technologie implementiert werden?

00:15:39: Da sprechen wir vom sogenannten Essex by Design oder Value-Based Design Ansatz komme ich nochmal kurz darauf zu sprechen.

00:15:48: Bevor wir jetzt hier weitermachen, scheint mir sehr wichtig zu sein dass wir uns noch mal darüber verständigen was ist eigentlich Intelligenz.

00:15:56: Denn dieser Begriff künstliche Intelligenze suggeriert uns ja das wäre eine der Menschen vergleichbarer Intelligenzen.

00:16:03: und hier bin ich absolut ganz konsequent und sage Das ist nicht der Fall!

00:16:11: Und da argumentiere ich mit Thomas Fuchs Er ist Philosoph und Psychoanalytiker, er hat in seinem Aufsatz mit dem Titel Menschliche und Künstliche Intelligenz eine Klarstellung aus meiner Sicht sehr gut knapp zusammengefasst.

00:16:26: Intelligenzen im eigentlichen Sinne des Wortes sind an Einsicht, Übersicht und Selbstbewusstsein gebunden – verstehen was man tut!

00:16:36: Leben ist Selbstorganisation und Selbstbewegung nicht Herstellung und

00:16:39: Programmierung.".

00:16:41: Und Leben als Erleben ist wiederum die Voraussetzung für Intelligenz.

00:16:46: Eine Maschine erlebt nichts und eine Maschine versteht auch nicht, auch Chatshipiti weiß nicht was sie davon sich gibt – outputmäßig!

00:16:56: Von daher ist das nicht die Intelligenze, die wir in Bezug auf menschliche Intelligenzen meinen.

00:17:03: Und wenn wir uns das dann einfach nochmal auf die wichtigsten Charakteristika von KI näher anschauen, können wir uns natürlich auch die Frage stellen.

00:17:12: Nun ja was macht den Menschen aus?

00:17:15: Was haben wir denn in unseren Köpfen für ein Menschenbild?

00:17:19: Sprechen wir von Intelligenz, dann treift es meines Erachtens viel zu kurz und das finden leider Gottes auch sehr häufig noch bei Informatikern.

00:17:27: Bei meinen Kollegen da haben wir immer wieder ein Disput, dass eben unser Gehirn mehr ist als nur ein informationsverarbeitendes System.

00:17:38: Intelligenz heißt auch emotionale Intelligenzen, soziale und kreative Intelligenze.

00:17:45: Wir sind nun mal auch in der Lage, ein Bewusstsein von uns zu haben.

00:17:49: Das heißt wir können selbst reflektieren.

00:17:52: Wir wissen...wir sind eine Identität, ein Ich das kann eine Maschine nicht genauso wenig hat, eine Maschinengefühle.

00:17:59: natürlich kann heutzutage KI ihn simulieren dass sie empathisch wäre, dass sie ihre Freundin wäre.

00:18:08: Dass sich sozusagen um Sie kümmert und das passiert momentan auch schon sehr eindringlich.

00:18:14: aber das ist eben alles nur simuliert.

00:18:18: Auch haben Maschinen zumindest bislang noch keinen freien Willen und wir haben auch kein biologischen Körper.

00:18:24: was mit maschinellen Lernen beschrieben wird entspricht nicht dem lernen wie wir Menschen lernen, nämlich auch sozialen Miteinander aus der Erfahrung von Freude aber auch Leid und aus Vernunft gründen.

00:18:36: Wir Menschen können auch Regeln brechen.

00:18:38: das machen Maschinen gemeinhin nicht ganz wichtig Aber ist auch wir können moralische Prinzipien erkennen und auf uns selbst anwenden Und wir können Moralisch handeln weil wir ein Gewissen haben.

00:18:51: Maschiden haben keinen gewissen und deshalb können sie auch keine Verantwortung übernehmen.

00:18:55: wir können gar keine verantwortung an maschinen abtreten, das geht gar nicht.

00:19:01: Für mich aber ein ganz wichtiger Punkt Menschen sind zur Autonomie zumindest befähigt während Maschinen nur autonom Informationen verarbeiten.

00:19:10: Autonomistika erst dann wenn wir sie nicht mehr abschalten können.

00:19:15: Das ist hoffentlich niemals der Fall.

00:19:17: nun ein wichtiger weiterer Gedankenpunkt.

00:19:20: jetzt hatten wir das Thema Intelligenz Technik-Neutralität.

00:19:25: Es ist ein nach wie vor großer Mythos, das behauptet wird technisch sein neutral.

00:19:33: Lassen wir doch lieber eine KI darüber entscheiden wer hier einen Karriere-Sprung machen darf, wer einen Job bekommt weil da ist dann nichts Subjektives dabei und da möchte ich dagegenhalten.

00:19:48: Schon das erste Aus meiner Sicht wirklich ein, das erste Gebot des Technikhistorikers Kranzberg lautete Technologie ist weder gut noch schlecht aber eben auch nicht wertneutral.

00:20:02: Das heißt wir können nicht von einer wirkungslosen Technologie ausgehen und dafür ist dieses Beispiel von dem Brückenbauer Robert Moses der in den dreißigjahr bis sechzehr Jahren in New York eine Umgebung Brücken gebaut hat – ein ganz gutes Beispiel!

00:20:19: Der hat nämlich die Brücken so niedrig gebaut, dass keine Busse mehr durchkam mit dem Effekt das nur noch Pkw's durchfahren konnten.

00:20:26: Das hat aber wiederum zur Folge, dass sozial schwächere Menschen in diesem Fall schwarze davon abgehalten wurden an die attraktiven Naherholungsgebiete noch zu kommen.

00:20:37: Das Beispiel finde ich zeigt recht gut, dass Design und Technik niemals neutral sind.

00:20:43: kurz um technisch gestaltet Gesellschaft Aber Gesellschaft spiegelt sich auch in Technik wieder.

00:20:51: Ungerechte Folgen der KI werden Gemeinden insbesondere im Bezug auf Diskriminierungsfonds beschrieben, etwa hinsichtlich bei Gesichtserkennung farbiger Personen, der Bewertung von Tätern, Identitätszuschreibungen angeblicher Strafbarkeit, auch bei der Kreditvergabe oder eben auch beim Jobbewerbung.

00:21:10: und ich habe Ihnen hier mal so eine Aufstellung oder Liste mitgebracht der Datenbank des MIT, die sich mit den Veröffentlichungen auseinandergesetzt hat.

00:21:20: Wie viele KI-Risiken wurden denn bislang eigentlich schon beschrieben?

00:21:25: Und es sind hier also in dieser Datenbank siebenhundert KI Riesenrisiken beschrieben, die sowie dreitausend Fälle in denen KI Schäden verursacht haben, wo's vor allen Dingen auch um Diskriminierung ging.

00:21:38: Welche zentralen Konfliktfelder beschäftigen uns?

00:21:44: Ich habe Ihnen hier ein kleines Büchlein mitgebracht.

00:21:46: Das ist eine Studie gewesen, wo es um die Fragen der Werteängste Hoffnung wie erleben Menschen eigentlich Digitalisierung geht und sowohl im privaten als auch im beruflichen dann war eben auch völlig ersichtlich dass hier Reihe von Wertekonflikte insbesondere im Bereich des privaten der alltäglichen Lebenswelt angesiedelt sind gar nicht mal so stark im Bereich das Beruflichem.

00:22:12: Nun, ich habe mir im Vorbereitung auf unseren heutigen Nachmittag auch nochmal überlegt was sind denn ganz knapp zusammengefasst die zentralen Konfliktfelder in Kontext von KI.

00:22:23: Passierte auch gerade ein Kulturwandel?

00:22:26: nun

00:22:26: eines der wohl uns besonders betreffenden Aspekte ist das Thema Desinformation.

00:22:35: Desinformation gilt auch im Glauber-Risk-Report des Weltwirtschaftsforums.

00:22:39: Im zweiten Jahr, also schon im letzten Jahr und auch diesmal wieder in den zwanzig, fünfundzwanzig als das größte kurzfristige Risiko weltweit.

00:22:48: Und das unterstreicht auch die anhaltende Bedrohung, die Desinformation für die Demokratie, den gesellschaftlichen Zusammenhalt und Regierungsführungen darstellen weil sie eben auch das Vertrauen untergraben und Spaltungen innerhalb und zwischen Nationen verschärfen.

00:23:04: KI ist jetzt hier ein Brandbeschleuniger.

00:23:08: KI ist nicht die Verursacherin dieser Desinformation, aber sie erleichtert sehr wohl die massenhafte Verbreitung von desinformierenden Bots und auch die Produktion von Deepfakes.

00:23:21: Und das ist eben auch nochmal so'n Punkt.

00:23:23: Wir Menschen glauben oftmals dass was wir sehen deshalb sind natürlich Deepfake's also Videos die KI generiert sind haben die ein relativ hohes Glaubwürdigkeitspotenzial und sind eben auch nicht immer sehr schnell als KI generiert erkennbar.

00:23:41: Nun, insofern ist KI Schuld mit daran dass wir einen Trend zur Informationsinstabilität haben.

00:23:48: Wir können uns einfach nicht mehr darauf verlassen was es war und was ist falsch.

00:23:54: Die zweite für mich ebenso ganz wichtige Baustelle ist das Thema Bildung.

00:24:00: da bin ich natürlich am nächsten dran aus meinem eigenen Erfahrungsbereich.

00:24:05: Wir erleben ja gerade eine massive Transformation, vor allen Dingen durch die KI-Tourist ChatGPT und ich bin auch der Meinung dass unser Bildungssystem dadurch in Frage gestellt wird.

00:24:16: Die Einhalten ist zwar für einen zugewinnen schließlich versprechen sie auch individuelles Lernen & Coaching.

00:24:22: man kann jederzeit an jedem Ort quasi einen Spa-Partner haben, Sparringpartner haben der ihm hilft die schwierige Matheaufgabe zu verstehen oder die Übersetzung ins Französische mal schnell vorzunehmen.

00:24:36: Oder auch zu erläutern warum das so oder so ist.

00:24:39: auf der anderen Seite haben wir natürlich auch das Risiko dass Denken outgesourced wird.

00:24:45: Das heißt weil wir nun mal bequeme Menschen sind, auch nicht mehr eigenständig denken und lernen wollen.

00:24:52: Also wir stehen vor der Frage brauchen wir eine Bildungsreform?

00:24:56: Und was heißt eigentlich noch Lernen für die Zukunft?

00:24:59: Was brauchen wir eigentlich noch?

00:25:02: Ich glaube Herr Kretschmann hat mal gesagt also französisch müsste man ja wohl nicht mehr lernen!

00:25:08: Wir haben doch super Übersetzungsprogramme.

00:25:11: Dritter Aspekt ist der Bereich der Arbeit.

00:25:13: Laut Berichten von PVC McKinsey und dem Weltwirtschaftsforum wird künstliche Intelligenz bis zu zweizigfünfzig die globale Arbeitswelt grundlegend verändern.

00:25:23: Schätzungen zufolge wären bis zu sechzig Prozent der derzeitigen Arbeitsplätze aufgrund von KI zur erheblichen Anpassung führen, Automatisierung, intelligente Systeme werden zu einem festen Bestandteil.

00:25:35: wir müssen mit Maschinen kooperieren.

00:25:38: Zudem werden viele ihren Job verlieren, da Geistern gerade immense zahlen.

00:25:43: Ich will jetzt da gar nichts genau sagen aber die Tendenz das wohl viele Branchen einbussen haben hinnehmen müssen ist wohl deutlich.

00:25:53: manche werden vielleicht auch schon gar nicht in den Job kommen.

00:25:55: das haben wir grade mit Akademikern das Problem.

00:25:58: Nun zweifelsohne sind wir von dem Big Tech Unternehmen wie Meta Microsoft Google Apple fast allen Arbeits- und Lebenskonstexten abhängig.

00:26:06: Und das ist der vierte Aspekt, der Machtfaktor.

00:26:10: Wir haben es bislang nicht geschafft die Marktanteile dieser meinungsbildenden Plattform zu begrenzen und wir haben das im Rundfunk ganz leicht gemacht.

00:26:17: Da dürfte ein Springerkonzern nicht mehr als dreißig Prozent Marktanteil haben.

00:26:21: Wie ist es bei Google?

00:26:23: Wie ist das bei Apple?

00:26:24: wie ist das beim Meta?

00:26:26: Ich habe noch nie was von dreizig Prozent gehört würde aber sofort einen Wettbewerb sofort einen Wettbewerb in Gang setzen.

00:26:33: Und plötzlich könnten auch andere Firmen Dinge entwickeln und auf dem Markt bestehen, und eben vor allen Dingen Medien weiterhin Qualität sichern.

00:26:43: Nun überlegen wir uns ein zweites Szenario so bisschen an Anlehnung an Hillary Putman die Erweiterungsmaschine dieses Szenarios.

00:26:54: stellen wir uns mal vor geniale Neuropsychologen und KI Experten hätten eine Erweiterungsmaschine konstruiert, die uns durch eine Koppelung mit unserem Gehirn ermöglicht unsere Fähigkeiten zu erweitern.

00:27:07: Wir könnten dann Aufgaben schneller erledigen, unser Fakten müssen leichter erwerben und unsere körperliche Leistungen vervielfachen.

00:27:17: Wer möchte kann sich bis ans Ende seines Lebens an diese KI anschließen?

00:27:22: Nun würden Sie sich an diese AI-Erweiterungsschiene anschließen – es ist ja schon verlockend!

00:27:30: Wer würde das machen?

00:27:32: Ehrlich gesagt.

00:27:36: Einige, einige Zweifeln!

00:27:40: Ist jemand bei Ihnen der eindeutig sagt nein kommt überhaupt nicht in Frage.

00:27:46: Ja aber das Bild ist nicht so eindeutlich wie bei unserem Schutzengel.

00:27:50: Nun

00:27:51: das Szenario ist auf jeden Fall an ein transklar-transhumanistisches Szenarium ein bisschen angelegt wonach ja die Menschen defizitär sind wir sind fehlerhaft und wir brauchen nun mal Technologien um uns zu optimieren.

00:28:04: Nun auch hier wieder muss man natürlich berücksichtigen, dass ein Gehirn eben nicht nur ein Informationsverarbeiten des Systemes ist.

00:28:13: Es ist aber auch eine Frage der Haltung ob wir letztendlich diese Idee des human enhancement gut finden oder nicht.

00:28:24: und da sind wir ganz schnell auch an dem Thema der Werte.

00:28:28: nun was ist ein Wert?

00:28:30: Ein Verb ist zum einen ein Gut es aber auch Ein Maßstab, ein Kriterium und ein Standard.

00:28:37: Wir können sagen es sind die Vorstellungen Ideen, Ideale.

00:28:41: Sie bezeichnen das was wünschenswert ist und sie können uns auch dabei helfen letztendlich uns zu orientieren und Leitverstellungen zu haben.

00:28:52: Ich habe Ihnen hier unser Forschungsprojekt Predisico noch mit drangehängt.

00:28:55: wir haben hier damals mit verschiedenen Playern zusammen überlegt wie kann man Zivilcourage bei Bürgerinnen und Bürger sozusagen fördern, haben dort auch Filme kreiert.

00:29:09: Haben auch bestimmte Website aufgebaut und letztendlich diese präventive Sicherheitskommunikation versucht hier voranzutreiben.

00:29:21: Da ging es eben auch um den Wert der Zivilcourage.

00:29:25: Nun, wir können sagen in der Werteforschung ist was die Funktion von Werten anbelangt eigentlich ein Konsens.

00:29:31: Sie helfen letztendlich unsere Handlungen zu steuern.

00:29:35: sie helfen oder sind manchmal auch für unsere Motive wichtig weil sie unser Handeln rechtfertigen lassen und sie sind letztlich natürlich auch eine Anführungszeichen schuld daran wie wir die Welt wahrnehmen und beurteilen.

00:29:50: Kurz gesagt Werte helfen und sich im Alltag zu orientieren.

00:29:55: Das ist natürlich dann die gute Frage, was ist denn jetzt nur in Bezug auf KI ein wichtiger Wert?

00:30:02: Wir hatten ja vorhin schon wenn Sie sich erinnern beim Schutzengel den Wert der Autonomie und den Wert Sicherheit.

00:30:08: aber wenn man sich jetzt die Literatur und verschiedene Veröffentlichungen anschaut, dann sieht man dass diese Wertekarte, diese Topografie der Werte sehr wichtig sind.

00:30:21: Das sind die Werte, die uns im Kontext von KI beschäftigen und hier sind auch Konflikte erkennbar.

00:30:29: Das ist der Wert der Menschenwürde, der Freiheit und der Sicherheit das Vertrauen in die Transparenz von KI, Gerechtigkeit und Verantwortung so Anforderungen an Technologie und deren Anwendung, demokratieverträglich zu sein.

00:30:50: Und auch nachhaltig zu sein weil wir wissen ja noch viel mehr in Zukunft als bisher werden diese generativen KI's immense Ressourcen an Energie verbrauchen so dass eben ja auch schon kleine Atomkraftwerke gebaut werden um diesen Bedarf zu tilgen.

00:31:08: Ja, und die Werte der Autonomie bzw.

00:31:11: Selbstbestimmung und Privatheit all das sind die Wärte mit denen wir oftmals Konflikte erleben.

00:31:19: Nun ich wollte noch kurz darauf eingehen dass diese Kardinaltugenden für mich auch ein ganz guter Orientierungsmaßstab ist mit dem man relativ schnell auch Bewertungen vornehmen kann.

00:31:33: Die Kardinaltagenden Grunde genommen schon mit einer langen kulturgeschichtlichen Tradition verbunden schon Platon und Unterschied für Tugenden, nämlich Klugheit, Maßhalten, Mut und Gerechtigkeit.

00:31:48: Kardo heißt im lateinischen Türangeld Dreh- und Angelpunkte sind also jene vier Grundhaltungen die Angelpunkten des ethischen Handelns sind.

00:31:57: Und das Besondere an diesen Werten, das finde ich eben auch so beeindruckend ist, dass sie nicht isoliert für sich dastehen atomistisch sondern dass sie voneinander abhängig sind.

00:32:06: Also so kann beispielsweise nur jemand gerecht handeln der klug ist, der maß hält und gegebenenfalls auch mutig sein muss.

00:32:15: Und klug es nur jemand, der auch gerecht ist.

00:32:18: Mutgerechtes Maßhält und Courage zeigt wenn es nötig ist.

00:32:25: bzw.

00:32:25: Mut, sind nicht um ihrer selbst Willen eine Tugend sondern sie müssen dann immer auch um das gerechten Willen und mit dem richtigen Maß und besonnen ausgeübt werden.

00:32:34: Man kann sogar sagen weil Sie sehen dass jetzt von der Anordnung Klugheit so wird es auch oft behauptet ist die Gebärerin der Tugen steht ganz oben ist quasi auf ein oberstes Level gebunden.

00:32:48: gleichzeitig wissen wir durchaus problematisch sein kann, auch der Listige und der Unmoralische ist klug.

00:32:58: Also Klugheit muss auf ein oberstes Ethik-Prinzip nämlich das des Glücks und des gelingenden Lebens ausgerichtet sein.

00:33:05: Ja und was heißt denn jetzt wiederum Klugkeit in Bezug auf KI?

00:33:09: Ich würde sagen erst mal nicht dass die KI selbst klug sein soll sondern wir brauchen eine kluge Umgangsweise und das heißt eben einen Aufbau von KI-Kompetenz.

00:33:22: Wir müssen auch eine Haltung entwickeln, womit ein kluger gerechter und maßvoller Einsatz vom KI anzustreben ist.

00:33:30: also auch manchmal die Fragestellung baume jetzt hier überhaupt KI oder ist es selbst weghaft?

00:33:37: Und damit komme ich zu unserem Thema KI Kompetenz.

00:33:41: Ich will sie jetzt gar nicht da auf das Soziales nochmal wiedergeben, was die KI-Verordnung hier versucht zu definieren.

00:33:50: Es geht vor allen Dingen auch um Chancen und Risiken von KI und es ist nicht nur eine technische Kompetenz, die die KI Verordnung vorgibt sondern sehr wohl auch die der Folgenabschätzung.

00:34:02: Und wenn man sich dann auch die aktuelle Kompetenzdefinition der EU Kommission, der UECD Auch dort wird noch mal darauf hingewiesen, es geht hier auch darum Vorteile Risiken und ethische Implikationen kritisch zu bewerten.

00:34:20: Wir können also auch sagen, KI-Kompetenz kurz gesagt meint Wir müssen über ein technisches, ein wirtschaftliches, ein rechtliches und ethisches Wissen von KI verfügen.

00:34:31: Wir brauchen anwendungsbezogene Fähigkeiten die müssen uns aneignen und wir müssen in der Lage sein die gesellschaftlichen und individuellen Chancen und Risiken reflektieren zu können.

00:34:41: also wir müssen auch interdisziplinär von verschiedenen Perspektiven an das Thema KI Kompetenz.

00:34:49: Laut der BITCOM-Studie verwenden inzwischen zwei Drittel, nämlich siebensechzig Prozent der Bundesbürgerinnen und Bundesbürgern ab sechzehn Jahren zumindest hin und wieder generative KI.

00:34:59: Im vergangenen Sommer waren es nur vierzig Prozent.

00:35:03: unter den Erwerbstätigen nutzten seventy-vier Prozent generative Ki für private Zwecke.

00:35:09: im vergangen Jahr lag der Anteil noch bei neununddreißig Prozent.

00:35:15: Und erstmals setzt mehr als jeder zweite, jede zweite KI auch im Job ein.

00:35:21: Nicht selten ohne Wissen des Arbeitgebers.

00:35:26: Nun

00:35:27: mal ein ganz fiktives Szenario!

00:35:31: Stellen Sie sich doch mal vor, ein Soldat hätte Probleme mit seinem Vorgesetzten.

00:35:36: Seiner Meinung nach ist er wichtig touristisch und ignorant.

00:35:40: Er weiß nicht wie er mit der Situation klarkommen soll.

00:35:43: Da er sich niemanden anvertrauen will, wendet er sich an Chatshipity.

00:35:47: Er schildert seine Situation bittet die KI um Hilfe.

00:35:51: Handelt er richtig?

00:35:53: Was sind mögliche Folgen?

00:35:55: Wir haben dieses Thema momentan in ganz vielen Berufen in ganz vielen Kontexten, privat wie auch immer.

00:36:06: Wo man eben denkt es könnte mir ja dabei helfen Impulse zur Selbstreflektion zu bringen also dass man die Situation schneller einordnen kann das man seine eigenen Emotionen sortieren kann, dass man Lösungssätze erkennt.

00:36:22: vielleicht strukturiert auch die KI für mich die Ratschläge und gibt mir Tipps zur Konfliktbewältigung zur Kommunikation oder zum Stressmanagement, ohne dass ich da jemand anderen noch fragen muss.

00:36:36: Aber wie sieht es anders als Konter auch aus?

00:36:39: Also erst mal Privatheit.

00:36:41: Daten die an Chatchi Pity sind nicht mehr privat.

00:36:44: Wir können sie nicht mehr einholen.

00:36:47: Sind Sie anonym und sicher?

00:36:48: Nein natürlich nicht!

00:36:50: Eine KI ist auch nicht vertrauenswürdig weil sie kann zwar Strategien vorschlagen aber das ja nicht in der emotionalen Tiefe.

00:36:59: Da wäre also ein vertrauenswürdiger Mensch sinnvoller und eine KI kennt nicht die Dynamik im Detail, der Kontext fehlt oftmals.

00:37:09: Und wir haben tatsächlich zumindest aus Studien das Risiko der Situation wenn man sich an die KI wendet bleibt das Problem möglicherweise ungelösten wie Fuzation könnte wachsen.

00:37:23: Ich habe Ihnen hier nur eine Studie mitgebracht.

00:37:25: Es war eine amerikanische Studie, vier Wochen Langzeitsstudio mit neunhundert-einen-achtzig Teilnehmerinnen.

00:37:33: Da wurden Text und Sprachinteraktion mit Chatchi Pity untersucht.

00:37:37: Und Teilnehmende wurden gebeten täglich mindestens fünf Minuten mit einem erweiterten Sprachmodus für flüssigere natürlich wirkende Gespräche in Echtzeit zu kommunizieren – mal persönlich, mal neutral, mal frei gewählte Themen.

00:37:52: Wer mehr Zeit mit dem Chatbot verbrachte fühlte sich aber dann Mehr einsam, hatte weniger Sozialkontakte und empfand eine höhere emotionale Abhängigkeit von KI.

00:38:03: Also das Thema Abhängigkeit kann hier durchaus einer Rolle spielen.

00:38:08: Nun kann KI moralisch sein?

00:38:10: Das ist ja auch unsere Frage mit was wir auf jeden Fall wissen is, KI kann unmoralisch sein!

00:38:16: Nur wenige Stunden nachdem der von Allen Maskfilmer XAI entwickelte KI Chatbot Grog ein der er erhalten hatte, bei dem politische Korrektheit gezielt abgeschwächt wurde musste XAI die Textausgabe von Grog stoppen.

00:38:30: Die Maßnahme wurde notwendig weil Grog sich selbst mehrfach als Mecherhittler bezeichnete antisemitische und rassistische Verschwörungstheorien verbreitete und sogar Konzentrationslager verteidigte.

00:38:43: Der Chatbot verfasste Lobeshymnen auf Adolf Hitter öffentlich für jeden Einsehbar.

00:38:50: Natürlich kann sie aber auch werteorientiert gestaltet werden und damit moralische Prinzipien widerspiegeln.

00:38:57: Das sind wir also an diesem Punkt von Essex by Design, man versucht hier letztendlich Tools, Produkte, Artefakte so zu gestalten werteorientiert sind mit einer gewissen, auch iterativen also immer wieder überprüfenden Art und Weise.

00:39:17: Und versucht vor allen Dingen eben alle Betroffenen die von so einer Technologieanwendung damit konfrontiert sind mitteinzubeziehen.

00:39:26: Wir haben sowas mal gemacht mit Start-ups.

00:39:29: das ist hier von der Bayerischen Landessentrale für neue Medien gefördert worden Also für Start ups.

00:39:35: gerade neu habe ich auch mit veröffentlicht einen Ein Companion über Essex by Design und wir haben ein Forschungsprojekt, das jetzt auch in die Abschlussphase kommt.

00:39:45: Da geht es um die Frage dürfen im Nachrichtenjournalismus künstliche beziehungsweise synthetisierte Stimmen von Nachrichtensprechern entwickelt werden?

00:39:56: Und wenn ja wie sollen diese gestaltet werden?

00:40:00: Ja alles sozusagen Aspekte wo es darum geht wie kommen die Werte in die Technologie?

00:40:06: und damit komme ich zum Abschluss Wir Menschen sind narrative Wesen.

00:40:11: Das hängt schon damit zusammen, dass unsere Biografie die Welt und unsere Phänomene, die wir eben versuchen zu erfassen, häufig in Form von Narrativen formuliert sind.

00:40:22: Und es ist auch bei KI der Fall.

00:40:24: Sowohl Hoffnung, Erwartung und Ängste sind immer an Narratifen gebunden.

00:40:29: Ich habe ihn hier zum einen weil das Prometheus-Narrativ quasi gezeigt, Promethäus deshalb.

00:40:37: Weil er brachte in der griechischen Mythologie den Menschen das Feuer die Schrift und Zahlen und damit war ein gewaltiger Sprung in der Geschichte der Menschheit vollzogen.

00:40:48: auch Microsoft nannte seine Methode um den Open AI das Modell zu erarbeiten, Prometricus.

00:40:55: Hier geht es vor allen Dingen darum dass uns versprochen wird KI Beziehungsweise die Systeme werden effektiver, sie werden leistungsfähiger.

00:41:04: Sie sind komfortabler und einfacher.

00:41:07: Demgegenüber haben wir die sogenannte Büchse der Pandora-Narrative.

00:41:12: hier geht es vor allen Dingen um die Ängste, um dystopische Erzählungen quasi gleichsam dem Besen des Götchen Zauberlernlings, der ja sagte Ja, die Not ist groß!

00:41:23: Die ich rief, die Geister werde ich nun nicht los.

00:41:26: Hier wird vor allen Dingen ein Kontroll- und Autonomieverlust befürchtet, vor allem wenn eben nicht transparent und erklärbar ist die KI zu ihren Berechnungen kam.

00:41:35: Vor allen Dingen wird auch der Trend so mehr Überwachung formuliert, v.a.

00:41:40: in autokratischen autoritären Systemen.

00:41:44: Auch die Destabilisierung von Demokratie wird angesprochen, der Verlust von Arbeitsplätzen Das Thema der roten Linien, inwieweit darf KI oder soll KI im Krieg eingesetzt werden.

00:41:59: Die Ukraine dient hier gerade als Experimentierfeld für viele ausländische Unternehmen so dass die Time bereits titelte The First AI War Der erste KI-Krieg.

00:42:13: Beide Narrative blenden aber aus meiner Sicht weil sie eben auch so antipodisch sind zu gegensätzlich sind aus, dass es eben auch vielleicht einen goldenen digitalen Mittelweg geben könnte wo wir eben weder ein zu viel noch ein zu wenig von KI quasi umsetzen sollten.

00:42:33: Wir sollten vor allen Dingen eben auch hier KI nicht zum Eignutz anwenden sondern im sozialen Handlung und der Entwicklung einer immer wieder zu überprüfenden Haltung.

00:42:44: und eine zeitgemäße Lesart dieses digitalen oder goldenen Mittelwegs wäre, dass wir eine wertebezogen und ausbilanzierte KI brauchen.

00:42:54: Dass wir eben das Verhältnis zwischen einem zu viel und ein zu wenig an KI-Technologie immer wieder austarieren und auch mögliche Folgen für die Gesellschaft vorab schon uns besser bewusst machen.

00:43:09: Wir sollten dabei auch eben bedenken, dass es darum geht die Grundwerte weiterzusichern.

00:43:14: Also auch die gesellschaftlichen Herausforderungen wie politische Destabilisierung Kriegel, Ressourcenknappheit, Migration und Bildungsnotstand zu bewältigen.

00:43:23: hier könnte KI natürlich schon helfen aber die Frage ist in welcher Form?

00:43:29: Auch die Entscheider und Akteure, die KI entwickeln, Managen einsetzen sollten in ethischen Fragen fortgebildet werden.

00:43:36: Und eine Haltung entwickeln.

00:43:39: Wir brauchen kein Big Tech Mythos für die Zukunft sondern wir brauchen eine Zukunftsvision in dem KI auch für das Gemeinwohl da es und zuträglich ist.

00:43:51: KI muss den Menschen nützen nicht sie kontrollieren Und es muss verhindert werden, dass Menschen wie Maschinen behandelt werden.

00:44:01: Zum Schluss nur ein kleines Projekt auf das ich Sie hinweisen will.

00:44:04: Gerade haben wir für Schulen die zehn Gebote der KI-Ethik entwickelt.

00:44:08: Das Storybook ist gerade im Druck also ein kleises Büchlein wo dann jedes Gebot noch mal in Bezug von der Alltagsgeschichte erklärt wird und Ich habe auch noch ein paar Exemplare mehr.

00:44:22: Die kann ich Ihnen nachher, wenn Sie möchten, können Sie sich das auch nochmal anschauen?

00:44:26: Ja und wer von Ihnen Interesse hat oder ihr weiß dass jemand so etwas braucht wir haben eben hier dieses KI-Kompetenz Zertifikat wo wir eben auch verschiedene interdisziplinäre Perspektiven für die KI Kompetenz Schulung einbringen wollen.

00:44:44: und damit noch ein kleiner Literatur Tipp Und ich bedanke mich für Ihre Aufmerksamkeit.

00:44:52: Ja, liebe Kameradinnen und Kameraden meine Damen und Herren wir wollen mit dem

00:44:57: nächsten

00:44:59: Abschnitt unseres Nachmittages fortfahren Mit einer Podiumsdiskussion und Frau Dr.

00:45:05: Schilling hat die Diskotanten und Diskotandinnen bereits vorgestellt.

00:45:11: Herr Prof.

00:45:12: Dr.

00:45:12: Bernhard Koch Frau Professor Doktor Grimm haben wir ja gerade auch im Vortrag schon gehört.

00:45:22: Wir werden es jetzt zunächst einmal so machen, dass

00:45:24: wir

00:45:26: miteinander ein paar Fragen diskutieren werden wollen dann aber auch relativ zügig diese Runde auch

00:45:34: öffnen

00:45:35: damit sie die Fragen stellen können die ihnen nach diesem Vortag unter den Nägeln brennen wenn ich da für dich

00:45:45: Anfang

00:45:45: mit einer Frage an dich, lieber Bernhard.

00:45:49: Denn du hast ja – wir haben auch jetzt im Vortrag schon eine ganze Menge über autonome Systeme gehört.

00:45:55: Wir haben auch die ganz klassischen Gedankenexperimente dazu gesehen.

00:46:02: Du hast dich sehr intensiv gekümmert um Fragen der Debatte um KI in Waffensystemen und hast das begleitet über viele Jahre und auch bearbeitet.

00:46:14: Was mich mal interessieren würde, wäre die Frage welche Chancen gibt es denn überhaupt?

00:46:19: Beispielsweise KI gesetzlich?

00:46:22: und dann wird die nächste Frage ethisch und rechtlich.

00:46:26: Wie hängt das zusammen zu reglementieren?

00:46:29: wie ist das eigentlich?

00:46:31: Bei Waffensystemen stellt das ja bis heute eine erhebliche Herausforderung dar, wenn wir mal diesen Bogen jetzt auch in den militärischen Kontext schlagen dürfen.

00:46:41: Sie haben über die Autos gesprochen bei uns.

00:46:43: Sind es die Waffesysteme?

00:46:45: Wie lässt sich oder lässt sich das überhaupt gesetzlich reglementieren?

00:46:50: Grüß Gott zusammen!

00:46:52: Ich glaube da sind wir schon sehr im Kern sozusagen einer dessen was Ethik machen kann wo sie... oder was sie vielleicht auch nicht machen kann.

00:47:04: Also wenn wir hergehen und sagen, wir wollen sie reglementieren, dann fallen wir sozusagen bei Waffensystemen schon mal zwei große globale Felder ein.

00:47:13: Ich mache mir das allererste, das betrifft im Grunde genommen KI ganz insgesamt und ich bin sehr gespannt wie Sie Professor Grimm das sehen.

00:47:22: Das ist nämlich so, wenn wir Normen aufstellen, dann tun wir das in Sprache verfassen die in irgendwie, was wir nennen, normative Sätze.

00:47:35: Und ... Die Sprache, die wir verwenden kommt aus unserer menschlichen Lebenswelt.

00:47:42: Wenn wir also zum Beispiel hat man das in den vergangenen Koalitionsverträgen drin.

00:47:48: Wir wollen uns sozusagen auf völkerrechtspolitischer Ebene im außenpolitischen Teil kommen.

00:47:55: Das wollen wir uns dafür einsetzen Dass Maschinen, die selber überleben und tot entscheiden, dass diese Maschinnen geächtet werden.

00:48:04: Jetzt haben wir da überall die Küche aber Maschine, die überleben oder tot entscheiden.

00:48:10: Der Entscheidungsbegriff ist etwas was wir von meinem philosophischen Hintergrund her sehen, das wir aus unserer Lebenswelt heraus kennen.

00:48:19: Wir wissen, was wir tun wenn wir uns entscheiden!

00:48:23: Ja, aber wenn wir es erklären müssen, so ein bisschen wie mit Augustinus in der Zeit.

00:48:27: Wenn wir das erklären müssen und sagen, was ist denn das eigentlich?

00:48:30: Wir wegen Gründe gegeneinander ab – ja, das ist alles schon ungewöhnlich.

00:48:34: Ja, Gründe haben Maschinen, hat Robotik, hat Software, hat die Gründe.

00:48:42: Also wir übertragen einen Begriff den Entscheidungsbegriff hier sozusagen auf so eine Maschine.

00:48:50: Wenn also wir so eine Norm aufstellen Dann haben wir es hier irgendwie mit einer Metapher zu tun und die Gefahr besteht halt jetzt immer, dass man gewissermaßen dann sagt naja, fällt überhaupt das was hier passiert.

00:49:08: Der Vollzug dieser Maschine fällt ja überhaupt unter den Ausdruck, den wird er für verwenden.

00:49:15: in einem gewissen Sinn eben Maschinen keine menschliche Intelligenz und sie entscheiden nicht menschlich usw.

00:49:21: Also das ist schon mal das allererste, dass wir uns fragen müssen wie kommt man denn überhaupt mit unserer Sprache an das heran was da in der Maschine passiert?

00:49:33: Und deshalb wandern um auf die autonomen Waffensysteme zurückzukommen.

00:49:36: als man da also angefangen hat im Zusammenhang mit den UNO-Waffenkonventionen also Verhandlungen aufzunehmen Völkerrechtspolitisch eher alles ziemlich aussichtslos in der jetzigen Konstellation, aber vor sieben, acht Jahren hat man dann noch Hoffnungen gehabt.

00:49:54: Als erstes mal Riesenprobleme da überhaupt definitorisch an das Phänomen autonomes Waffensystem heranzukommen.

00:50:01: Wir haben es auch auf anderen Gebieten.

00:50:03: ja.

00:50:03: also wir fordern beispielsweise irgendwie Trustworthy AI in die EU oder so.

00:50:08: Das ist alles gut Also ist auch gut gemeint.

00:50:10: Ja ich will jetzt irgendwie sagen dass es Blödsinn oder sinnlos, zwecklos oder irgendwie sowas.

00:50:15: Das ist schon richtig!

00:50:16: Nur was heißt das eigentlich?

00:50:19: Trust versus vertrauenswürdige KI oder explainable AI?

00:50:23: Wir sehen gerade in der Medizin zum Beispiel wir sind da passiert irgendwas.

00:50:29: ja die Resultate von der KI sind eigentlich saugut aber wir wissen nicht wie sie zustande kommen.

00:50:36: also sagen wir ganz heiß mir halt die KI erklären Ja, wir sagen also die KI soll noch eine Zusatzfunktion haben.

00:50:43: Die sollen wir nämlich auch noch sagen wie sie zu den Ergebnissen kommt.

00:50:47: aber auch das ist gar nicht mal so unproblematisch.

00:50:50: denn natürlich könnte eine KI auch lernen mir gewissermaßen etwas zu präsentieren was ich als Erklärung akzeptiere.

00:51:01: Das muss nur lange nicht das sein zu dem Ergebnis kommt, sondern sie könnte gewissermaßen wenn man so will nebenher.

00:51:08: Also eine Linie könnt ihr eben neben dem guten Ergebnis sagen.

00:51:12: wir mal es ist ein gutes Ergebnis ja und Diagnostisches beispielsweise Könnte Sie auch noch lernen mir eine Erklärung zu geben von der ich sage saugute Erklärungen Ja.

00:51:22: also das ist Das ist unglaublich problematisch, deshalb ... Es ist schon so ein bisschen wie bei Tom Cruise in Mission Impossible.

00:51:32: Trus is vanishing!

00:51:34: Wo geht die Wahrheit hin?

00:51:35: Der Folge-Satz heißt Worl's Coming und da könnte man dann auch noch darüber reden.

00:51:39: Aber das ist sozusagen die eine Seite.

00:51:44: Wie greifen wir das Phänomen überhaupt sprachlich adäquat?

00:51:47: Weil eben unsere Begriffe aus einer Lebenswelt des Menschen kommen.

00:51:52: Und das andere ist natürlich bei autonomen Waffensystemen im Besondern.

00:51:55: Natürlich dann auch die Frage, haben wir überhaupt ein gemeinsames Interesse?

00:51:59: Haben wir überhaupt eine Chance, dass man es völkerrechtspolitisch eben durchsetzen kann?

00:52:07: Es ist ja so, wenn man irgendeiner Stelle gewissermaßen eine einseitige Beschränkung vornehmen würde, dann hat man halt im Konfliktfall und das ist halt anders als beispielsweise bei anderen KI-Anwendungen wird man sich dann ja auch wirklich in einen Nachteil begeben.

00:52:23: Wenn man so will, jetzt mal auch wieder ein bisschen überdragen gesagt, fast in einem existenziellen Nachteile.

00:52:29: Also ein Nachteils der eben auch bedeuten kann dass wir dann eben auch militärisch oder im Hinblick sozusagen auf die militärischen Ziele deutlich in den Rückstand gerät und da ist im Augenblick wohl kaum sozusagen die Bereitschaft dazusagen.

00:52:47: Wir sehen hier sozusagen ein so großes universales Interesse, dass wir uns da entsprechend binden lassen.

00:52:54: Wie wir es vielleicht mal bei der Nuklearbewaffnung hatten oder wie man's eben auch hatte als man sich aufs humanitäre Völkerrecht beispielsweise verständigt hat weil man gewissermaßen noch das Gemeinsame sehen konnte ja weil man irgendwie wusste vom Untergang gewissermassen der Menschheit profitiert niemand darf profitieren wir auch dann nicht wenn wir Sieger sind.

00:53:14: Aber bei der KI sieht es offenbar ein bisschen anders aus.

00:53:17: Da ist immer noch bei jedem Player irgendwie die Hoffnung, dass man sich selbst den Vorteil verschaffen kann, der dann eben einen bestimmten Vorsprung auch bringt.

00:53:31: Das war ja in einem anderen Kontext eigentlich genau das was hier auch im Hinblick auf die Reglementierung bestimmter Programme gesagt hatten, die wir bei den Medien bei dreißig Prozent haben und es gelingt uns dort nicht mit dem Hinblick auf Google oder wie auch immer zu reglementieren.

00:53:51: Eine Frage das würde ich ganz gerne aufgreifen von dem Bernhard was du gesagt hast und gern an Frau Professor Grimm weitergeben ist.

00:53:58: Du hast vor dem Begriff der Entscheidung gesprochen.

00:54:01: als Phänomenologe würde er von dem Phänomänen der Entscheidung sprechen aber das sei völlig dahingestellt.

00:54:08: Wie sehen Sie das?

00:54:10: Diese Diskurse, die wir im Rahmen auch einer KI-Ethik führen müssen zum Beispiel über so einen Phänomen wie Entscheidungen oder wie ein Phänomene des Handelns.

00:54:19: Oder auch der Intelligenz – Sie haben das im Vortrag genannt – lernen wir Menschen im Umkehrschluss dort auch nochmal vermehrt etwas über uns selbst in dem wir sagen... Die Frage nach der künstlichen Intelligenze Leitet uns dazu an, auch nochmal die Frage nach der Intelligenz des Menschen zu stellen?

00:54:41: Das hatte ich schon ein bisschen bei der Frage was unterscheidet und von KI in den Raum gestellt.

00:54:50: Wir kommen ganz schnell zur Frage Was ist der Mensch?

00:54:52: Was haben wir für einen Menschenbild?

00:54:54: beziehungsweise haben wir unterschiedliche Menschenbilder?

00:54:57: Die haben ja auch das glaube ich auf jeden Fall In der Auseinandersetzung jetzt mit dem.

00:55:05: Für mich ist es auch der Begriff Entscheidung.

00:55:07: Wir haben ja auch momentan die Situation, dass auch von Seiten der Informatik gesagt wird KI entscheidet, KI nimmt wahr, KI lernt, KI ist menschenähnlich.

00:55:20: also wir sind dauernd im Begrifflichkeiten, die dem Menschen zu eigen sind währenddessen die KI eigentlich nur Wahrscheinlichkeiten berechnet Und natürlich auch, aber vielleicht kann es auch noch mal Frau Balthas auch nochmal ausführen von ganz anderen Logiken ausgeht bzw.

00:55:44: wegen Prozessen, wie das ein Mensch machen würde.

00:55:47: Und diese Übersetzung oder dieser Wunsch Sie möge doch bitte erklären Wie ist sie zu dem oder jenen Ergebnis gekommen halte ich auch für problematisch?

00:55:56: Es gibt ja eine eigenen Forschungszweig der nur mit der Erklärbarkeit von KI Ergebnissen sich befasst weil dort so wurde mir zumindest von Seiten der Informatik gesagt Erklärung jetzt nicht unbedingt, dass der normalen Mensch, der kein Informatikstudium hinter sich hat, das dann begreifen würde wenn die KI es erklärt.

00:56:17: Weil diese Art von Erklärungen wäre wieder in dem Kosmos eines mathematischen oder wie auch immer Informatiksystems zu sehen.

00:56:26: Das heißt ich glaube wir müssen uns verabschieden von der Hoffnung in die oder in die andere Richtung etwas berechnet hat, sondern wir sollten uns auch noch mal darauf verständigen was ist die Grundlage dafür dass sie eben überhaupt bestimmte Berechnungen anstellt?

00:56:46: also mit was für Daten wird sie gefüttert?

00:56:48: das sehe ich ja noch am ehesten die Möglichkeit Auch wenn wir von autonomem Waffen sprechen.

00:56:53: Mit was sind denn das für Daten?

00:56:55: Welche Voraussetzungen sind da in diesen Trainingsdaten enthalten und inwieweit

00:57:03: es

00:57:04: zumindest versucht worden hier bestimmte Beises und Diskriminierungen rauszuholen.

00:57:13: Ansonsten sind natürlich aus ethischer Sicht autonome Waffensysteme sowieso außerhalb des Bereichs, weil die Kontrolle des Menschen damit ja komplett aus und vor ist.

00:57:25: Und genau das ist es ja, was wir eigentlich nicht wollen.

00:57:28: Ja ich sehe aber auch noch einen zweiten Punkt der Kooperationsproblematik, sei es bei Waffensystemen oder einer Diagnose eines Tumors.

00:57:38: Wir werden immer mehr in die Situation kommen dass wir ein Anführungszeichen einem Vorschlag einer KI sehen zu sagen Das ist positiv oder negativ Welche Erfahrungen haben wir da noch?

00:57:53: Ich sage mal, Erfahrungskompetenz um diesen Vorschlag sozusagen als Urteil dann auch anzunehmen.

00:58:05: Also sind wir noch so intelligent zu beurteilen ob die KI Recht hat oder nicht und werden ganze Reihe an Problemen entstehen, in Frage der Verantwortung etc.

00:58:18: Wenn ich mich als Arzt darüber hinwechsetze und sage nein meine zwanzigjährige Erfahrung sagt mir das ist kein Krebs ja also wie wie verhält sich das dann von eben auch der Frage der Entscheidung?

00:58:32: oder würde ich dazu tendieren zu sagen nee also die KIS mittlerweile so gut, dann bin ich wohl doch nicht auf der richtigen Seite.

00:58:41: Also diese psychologischen Momente werden eine Rolle spielen egal in welchen Kontexten immer wenn wir mit KIS zusammenarbeiten wo es um solche Beurteilungen gehen und je mehr die ja Menschen dran sind diese Beurteilung Bewertungen desto ethisch problematischer

00:58:58: Vielleicht im Anschluss an dieser Ausführung von Ihnen hätte ich direkt noch eine Frage.

00:59:03: Denn Frau Professor Grimm, Sie haben ein Buch geschrieben zusammen mit Tobias Kebber und Oliver Zöllner.

00:59:09: Mit dem Titel Digitale Ethik.

00:59:11: wir haben es auch eben gesehen im Vortrag das Cover Leben in vernetzten Welten Und etwas von dem ich mir vorstellen könnte dass ist auch eine Frage ist die den einen oder anderen Zuhörer interessiert.

00:59:25: Wir sprechen ja einerseits von digitaler Ethik andererseits von einer Ethik der KI.

00:59:31: Sie haben uns kurz angesprochen, dass die Ethik eine Bereichsethik ist, die vielleicht also der digitalen Ethik zugeordnet ist oder zugehört.

00:59:42: Aber vielleicht können sie da noch mal was zu sagen?

00:59:45: Also zur Digitalen Ethic einerseits zu KI- oder Ethik Der KI andererseits... Ist das eigentlich wichtig hier zu differenzieren und wenn ja warum?

00:59:54: Da würde ich sagen sind so die Graubereiche relativ groß, weil ja schon in der KI-Verordnung die Definition, was KI ist auch sehr breit gefasst wurde.

01:00:09: Und je nach Position oder Schulung sagen die einen nur das dieser Teil der anderen sagen nein wir wollen es möglichst breithalten.

01:00:18: also sie haben sozusagen durchaus große Überlappungsbereiche so dass also keine scharfe Trennung zwischen KI-Ethik und digitaler Ethik aus meiner Sicht zu sehen ist.

01:00:30: aber diese ich sage mal dieses Selbst steuerende ist ja das, was für KI so bezeichnend ist und deshalb in dem Bereich natürlich sich andere Fragen stellen als vielleicht im allgemeinen anderen Digitalisierung Konzepten.

01:00:47: Jetzt würde ich ganz gerne einmal eine Frage auch an Frau Balthasar richten.

01:00:52: Sie kommen aus einem konkreten Anwendungsbereich also sie haben eine ganz konkrete Anwendungsperspektive auf künstliche Intelligenz.

01:01:03: Sie sind den verschiedenen Forschungs- und Entwicklungsprojekten tätig, unter anderem auch bei unserem Institut für wehrmedizinische Ethik an der Sanitätsakademie.

01:01:13: Sie haben es jeden Tag mit der Frage nach dem Umgang mit KI zu tun.

01:01:17: Spielen eigentlich ethische Überlegungen so wie wir das jetzt auch im Vortrag von Frau Prof.

01:01:23: Grimm gehört haben in ihrem beruflichen Alltag oder dem ihrer Kolleginnen und Kollegen eine Rolle?

01:01:29: Und wenn ja Wie können wir uns das eigentlich vorstellen?

01:01:34: Also in meinem Alltag ja, weil ich bei Ihnen am Institut bin.

01:01:39: Im Kontext der Informatik nein.

01:01:44: Das ist zumindest so derzeit.

01:01:47: als ich studiert habe, war es gar kein Thema.

01:01:50: Jetzt ist es so dass Ethik immer mehr Thema wird.

01:01:55: also ich kenne Ich kann es nur für München sagen beispielsweise, dass die Studierenden die Möglichkeiten haben so genannte ethische Zertifikate zu erwerben wenn sie in den Naturwissenschaften studieren.

01:02:07: Also gibt's dann Kooperationsverträge zwischen der TUM und der Hochschule für Philosophie beispielsweise wo dann eben Studierende sagen können oh ich beschäftige mich mit Robotik, ich beschäftigen mich mit künstlicher Intelligenz?

01:02:21: Ich möchte aber auch das was ich da tue, was sich da schliere, dass das irgendwie ein Impact hat.

01:02:27: Aber ich habe keine Ahnung davon, was da für theoretische Grundlagen dahinter stecken.

01:02:32: Ich möchte mich damit mehr beschäftigen.

01:02:35: Dann gibt

01:02:35: es da eben

01:02:36: Anknüpfungspunkte.

01:02:38: aber ist jetzt nicht so dass man wenn man Kurs wie programmiere ich KI belegt?

01:02:44: Dass man dann automatisch auch den Kurs Wie mache ich das ethisch belegen muss oder müsste?

01:02:50: also sowas gibt's nicht.

01:02:52: Das ist ja Tatsächlich etwas, was Herr Bernhardt vielleicht auch noch ein bisschen zu sagen.

01:02:57: Was wir bei verschiedenen Entwicklungsprojekten sehen oder immer wiedersehen und Frau Professor Grimm Sie haben das Stichwort Ethics by Design genannt Wir haben es am Institut also Beispiele dafür dass es so etwas gibt wie eine Embedded Ethics in solchen Entwicklungs- und Forschungsprojekte wo man früher vielleicht das Votum einer Ethik-Kommission am Anfang hatte oder am Ende.

01:03:24: Und heute sind es Ethical Advisory Boards, so nennt man das die so ein Entwicklungs- oder Forschungsprozess über den Gesamtprozess hin begleiten weil man vielleicht am Anfang eines solchen Entwicklungs-, oder Forschungprojektes noch gar keine Vorstellungen davon hat welche ethischen Fragen dort eigentlich aufschlagen können.

01:03:48: Und gerade wenn es darum geht, dass wir dann Sie besser wissen Frau Balthasar, entsprechende Algorithmen zu programmieren.

01:03:55: Wenn ich bestimmte Werte habe die mir wichtig sind in einem solchen Prozess, dann muss sich zunächst einmal diese Werte kennen und die muss ich auch irgendwie in einem solchen Algorithmus abbilden.

01:04:05: Wenn Ich das da nicht hineinprogrammiere dann habe ich das am Ende dort

01:04:10: nicht

01:04:11: drin.

01:04:11: Wenn ich nicht bestimmte rote Linien, die vielleicht das humanitäre Völkerrecht oder auch die Genfer-Konventionen vorgeben in einen solchen Algorithmus hinein integriere, dann habe Ich sie nicht.

01:04:24: Vielleicht könnte ich da ein Beispiel dazu nennen.

01:04:27: also in der Informatik ist es ja so wenn man was programmiert Man muss der Maschine jeden Schritt vorgeben Jedes Strom an Strom aus muss ich praktisch mit einer Codezeile belegen.

01:04:39: Ich muss jede Schleife

01:04:41: extra

01:04:41: machen und wir haben vorhin dieses Beispiel mit dem Fahrzeug gesehen, der Wand wo man dagegen fahren kann oder eben die fünf Personen die man umnieten kann.

01:04:53: Wenn ich jetzt Informatiker bin und nicht beschäftige mich mit autonomem Fahren, ich habe heutzutage in so einem Fahrzeug um die zwei Hundert verschiedenen Steuergeräte.

01:05:01: Die müssen alle miteinander kommunizieren, um entscheiden zu können okay wann Menschen?

01:05:08: Dann heißt es für mich als Programmierer... Ich müsste rein theoretisch sagen also wenn auf dem Sensor links vorne zwei Personen erkennbar sind dann löst die Bremse aus, jetzt ganz vereinfacht gesagt.

01:05:23: Aber das muss ich dem natürlich vorher sagen bevor sowas passiert.

01:05:27: zum einen und zum anderen sind es dann ja immer Varianten.

01:05:31: also sage ich dass okay das mache ich schon wenn da ein Schatten erscheint mach ich das wenn das eine Gruppe ist von Menschen die alle so Kinder sind beispielsweise oder mache ich das nicht bei Menschen die in Rente sind?

01:05:46: Also

01:05:47: ich muss das immer differenzieren.

01:05:49: Und dann kommt eine ähnliche Frage, die Frau Grimm auch schon aufgemacht hat.

01:05:53: Und zwar würden Sie ein Auto kaufen von dem Sie wissen das wenn sie auf einer Kindergartengruppe zufahren dass sie gegen die Band fährt?

01:06:04: Das müssen wir uns als Entwickler fragen.

01:06:07: Ganz ganz schwierige Fragen.

01:06:09: ja ich bin mir sicher da hat der einen oder andere von Ihnen noch eine Anschlussfrage zu wenn wir das jetzt gleich öffnen werden.

01:06:15: Ich hätte noch eine Frage an dich Bernhard und zwar du hast es angesprochen Wie schwierig das eigentlich ist, auch bestehende Reglementierungssysteme für uns im militärischen Kontext ganz wichtig natürlich des humanitäre Völkerrecht und die Genfer Konvention dahingehend weiterzuentwickeln.

01:06:38: Ich weiß nicht wie siehst du das?

01:06:40: Also HVR bzw.

01:06:42: Genfer-Konventionen, die für uns ja auch im Sanitätsdienst eine immens wichtige Rolle spielen Sind die Anschlussfähig für diese aktuellen Diskussion um DKI?

01:06:53: Und wenn ja oder nein, wie kann sowas eigentlich ausschauen.

01:07:00: Ja auch wieder ich kann vermutlich vergeben jetzt eine völlig verkürzte Antwort.

01:07:06: das ist immer ein Problem.

01:07:08: natürlich gibt es an Anschlüsse die auch immer recht selber geschaffen sind.

01:07:16: Also was das humanitäre Völkerrecht beispielsweise anbelangt, der Artikel six und dreißig glaube ich ist es im Zusatzprotokoll eins.

01:07:24: Das ist praktisch der Basistext jedenfalls für uns ja in des humanitären Völkerrechts.

01:07:31: Der sieht ja vor dass sozusagen jedes neue Waffensystem weiter darauf überprüft werden muss ob es vereinbar ist mit den Regeln der Konvention.

01:07:40: also beispielsweise indiskriminatorische dürften dann einfach auch nicht erlaubt sein, schon wieder nach diesem Artikel.

01:07:50: Und dann haben wir eben auch in den Preambeln und das ist ja ein großer Top aus dem humanitären Völkerrecht die martensche Klausel es darf nichts verwendet werden was sozusagen dem gewissen der Menschheit eklatant widerspricht.

01:08:04: weit gesprochen also da sind natürlich solche Möglichkeiten geschaffen.

01:08:13: Das, was man dann natürlich noch zusätzlich alles durch den Kopf geht bei diesen Dingen.

01:08:17: Ja das beispielsweise ist ein Verantwortungsthema.

01:08:20: Wir stehen jetzt natürlich mit der KI jetzt vorher hat die das mit der Entscheidung gebracht und nebenbei wird es Natürliches entscheiden einem menschliches Phänomen.

01:08:28: aber wir beziehen uns halt mit dem Begriff darauf.

01:08:31: Das heißt sobald wir es irgendwie in eine textliche Form bringen verwenden wir einen Begriff Wir kennen das natürlich auch als ein existenzielles Phänomen, uns verantwortlich fühlen.

01:08:46: Aber wir können es natürlich auch as rechtliche Verantwortung, moralische Verantwortung und so weiter.

01:08:52: Können wir das natürlich irgendwo fixieren?

01:08:56: Also in Texten außer uns selber gewissermaßen fixieren.

01:09:01: Und solche Verantwortungsbezüge sind natürlich im Recht auch hergestellt.

01:09:05: Ja, jetzt im humanitären Völkerrecht gilt grundsätzlich eher sozusagen eine Staatenverantwortlichkeit.

01:09:10: Aber die gilt nicht wenn es beispielsweise um die Strafgerichtsbarkeit geht.

01:09:14: also nach dem römischen Statut kann man eben auch individuell verantwortlich sein für Kriegsverbrechen und die anderen Straftatbestände, die das Völkerstrafrecht eben so kennt.

01:09:24: Und dass ist natürlich dann das nächste Feld.

01:09:26: ja Also wie viel Verantwortungsraum lässt uns die KI noch?

01:09:33: Das ist schon sehr ernst zu nehmen, weil ich jetzt das Beispiel von Frau Grimm aufzunehmen, wenn ich jetzt als Arzt wäre und ich weiß.

01:09:44: Ich habe einen unglaublich leistungsfähigen diagnostischen KI auch noch mal so ganz wüsste ob meine vielleicht begrenzte Erfahrung als Mediziner ausreichend wäre um der KI zu widersprechen.

01:09:59: Erlebe ja vielleicht dass ich mich selber auch schon ein paar Mal geirrt hab Und die KI erlebe ich als funktional extrem leistungsfähig.

01:10:09: Sodass mir auch so ein bisschen die Gründe schwindet, warum mich eigentlich eine KI widersprechen sollte.

01:10:15: Vor allem wenn ich dann noch bedenke dass es ja auch enorme Folgen hätte, wenn man der KI widerschbricht und sich vertut.

01:10:22: Ja?

01:10:22: Dann würde nämlich auch davor wohl verhoben werden und sagen, warum du hast das doch die KI eigentlich wusstest du sehr besser wusste.

01:10:29: Das heißt Wissen in dem Zusammenhang Also so ein bisschen ist auch, es ist schon die Gefahr da, dass uns künstliche Intelligenz auch so ein bissel der Handlungsurheber schafft und damit eben auch Verantwortlichkeit.

01:10:42: Ja wie soll man wir empfinden das jetzt so?

01:10:44: Ich spreche da halt auch in einer Metapher entzieht ja gewissermaßen entzieh ich habe das nicht mehr so.

01:10:51: Und das wäre dann sozusagen etwas was eher so dann auch in deine Forschungsfelder rüber reichen würde.

01:10:56: Wie ist es wenn ich beispielsweise für etwas verantwortlich gemacht werde wo ich effektiv gar nicht viele Entscheidungsoptionen hatte.

01:11:05: Ist das nicht etwas, was dann eben auch bei mir so was wie moralische Verletzung oder so auslösen könnte?

01:11:12: Also das finde schon alles sehr spannend und bedenklich!

01:11:17: Aber das heißt nicht... Ich will nicht nur negatives Bild zeichnen.

01:11:21: Das heißt natürlich nicht dass wir KI-Ned einsetzen sollten.

01:11:25: Wenn die KI diagnostisch noch leistungsfähiger ist als ein guter Mediziner dann würde ich als Patient auch wahrscheinlich wollen, dass man die KI benutzt.

01:11:34: Das ist ja klar!

01:11:35: Oder auch was ich vorher zu den Waffensystemen gesagt habe es ist nicht so das wir gewissermaßen überhaupt keine Möglichkeit haben, operationalisierbare Kriterien, die bräuchte man ja dann also zu etablieren.

01:11:46: Ja?

01:11:46: Das ist jetzt so, dass sie gar nicht hätte aber es ist doch sehr viel schwieriger.

01:11:50: Also wenn's halt... Nuklearwaffen abkommen, dann kann man sagen wir zählen irgendwelche Sprengköpfe durch und so.

01:11:56: Aber das ist halt alles auch nichts mehr mit Zahlen.

01:12:00: Welche Software ist da verbaut?

01:12:03: Das ist schon sehr schwierig.

01:12:04: und wie kontrollieren?

01:12:05: was haben wir dafür für Mechanismen und für Zugänge?

01:12:09: also es ist komplex ja aber nicht aussichtslos.

01:12:13: Frau Professor Grimm sie wollten vielleicht

01:12:16: noch ein Gedanken dazu.

01:12:18: reingebend Es ist ja nicht nur dieses Übersetzungsproblem beziehungsweise Entscheidungsproblem oder technische Andersartigkeit der KI, sondern wir haben eine gesellschaftliche Herausforderung.

01:12:37: Dahingehend welchen Raum wir der KI geben wollen.

01:12:41: wenn ich davon ausgehe in Schulen fehlt es an Lehrerinnen und Lehrkräfte sind mangelbare sind eh überfordert.

01:12:49: Ja, die Politik erhofft sich natürlich von KI und Digitalisierung dass diese fehlerhaft dieser Mangel dieses Defizit ausgeglichen wird.

01:12:59: genauso ist es im Bereich Gesundheit Pflege.

01:13:01: also ich werde höchstwahrscheinlich so kommen das wir weiß nicht vielleicht noch schneller, aber spätestens zehn Jahren wenn sie auf dem Land leben wahrscheinlich dann doch über eine KI erst mal eine Diagnose laufen lassen bevor Sie dann die Chance haben ins Krankenhaus oder in der Praxis zu gehen.

01:13:20: Weil natürlich diese Systeme wahrscheinlich auch immer noch perfekter werden in Sachen Diagnosen und von der Gesellschaft eben auch das als Missstand deklariert wird.

01:13:33: in der Technik und da sind wir wieder beim Techniksolutionismus, also sprich gesellschaftliche Probleme erhoffe ich mir durch die Technik zu lösen.

01:13:41: Ich will nicht sagen dass das grundsätzlich nicht der Fall ist.

01:13:44: Technik kann tatsächlich auch viele Probleme lösen.

01:13:48: aber nicht alle gesellschaftlichen Probleme lassen sich mit Technik lösen und ich glaube hier wird auch in Zukunft eine große Herausforderung sein.

01:13:58: wie wird es aus gesellschaftlicher... auch uns darüber verständigen, wie wir das eigentlich machen.

01:14:05: Finden wir es gut?

01:14:06: Dass wir dann sagen okay, dann haben wir halt so ein KI-System und das wird schon feststellen ob ich jetzt nach Ottkrebs habe oder einen Blindarm gerade irgendwie schnell raus muss vielleicht immer noch besser als wenn ich gar keine Diagnose hätte.

01:14:19: ja also sind ja dann auch so Abwägungsfragen.

01:14:22: aber das eigentliche Problem ist ja dass sich vielleicht einfach arbeitspolitisch falsche Entscheidungen getroffen

01:14:30: habe.

01:14:31: und das immer gleich mit Technik lösen zu wollen, dann halte ich eben auch für problematisch.

01:14:37: Und vielleicht gibt es erst mal andere Lösungen die effektiver sind?

01:14:41: Also Sie sehen gesellschaftliche Fragen, die jeden einzelnen, jede einzelne von uns betrifft – es muss sich jeder einzelne, jeder einzelner von uns damit beschäftigen!

01:14:51: Wir müssen miteinander dort in einer Diskussion oder einen Diskurs eintreten, dass wir uns die Frage stellen was wollen wir da eigentlich?

01:15:01: Diese Diskussion und diesen Diskurs, den möchte ich hier im Kleinen mit Ihnen eröffnen.

01:15:06: Und jetzt ihnen auch die Möglichkeit geben Fragen zu stellen an unsere Referentin, an unsere Diskotantinnen unseren Diskotanten hier vorne auf dem Podium also wenn sie Fragen haben an uns hier vorne sehr gerne.

01:15:19: Ja zunächst mal vielen Dank für den tollen Vortrag Frau Profi Grim und für diese sehr anregende Diskussion Ich.

01:15:26: Ich möchte nur mal eine Bemerkung noch machen zur KI in der Medizin.

01:15:31: Als Arzt, ich bin jetzt nicht mehr so viel kurativ tätig aber de facto ist es so das in diagnostischen Bereichen wo viele Datenpunkte anfallen oder wo viel Erfahrung notwendig ist.

01:15:42: Ich tatsächlich schon weiß dass zum Beispiel KI-Auflicht mikroskopische Bilder von schwarzen Hautflecken deutlich besser differenzieren kann ob's nun ein Malignis Melanomis als das der erfahrenste Dermatologe der Welt in selbst noch hundert Jahre praktiziert machen könnte.

01:16:00: Wenn ich mich als Arzt entscheiden müsste, macht die KI meine Hautkrebsdiagnose oder der beste Dermathologe Deutschlands nach Publikationen immer KI?

01:16:09: Da sind wir schon drüber hinweg wie man dann mit der Diagnose umgeht.

01:16:14: ob der

01:16:14: Arzt

01:16:15: vielleicht empathischer dann erklärt Mensch dass ist schon weit fortgeschrittenes Stadium müssen mal gucken ob da schon metastasiert ist.

01:16:23: Es ist ja schwierig, Sie haben es gesagt.

01:16:24: KI kann auch Emotionen und Empathie simulieren.

01:16:28: Inzwischen so gut dass bei Datingportalen – das habe ich neulich in der Studie gesehen – wenn man einen Chatbot KI ... So verstehen sie das!

01:16:42: Bildzeitung lese ich nicht, aber... Nein nein, das war eine interessante Studie tatsächlich die gezeigt hat, dass

01:16:51: ein Chatbot

01:16:52: der auf Datingportalen unterwegs ist viel mehr Likes

01:16:56: kriegt

01:16:57: als ein Mensch der da unterwegs ist.

01:16:58: Also das ist ein echt schwieriges Thema.

01:17:01: aber das wollte ich nur sagen zu... Da sind wir schon so ein bisschen drüber hinaus.

01:17:05: Das gilt für Radiologie und Dinge wo echt viele Datenpunkte anfallen Die Diskussion die wir hier führen Unheimlich wichtig.

01:17:14: Wir müssen nur aufpassen, dass wir in der Flughöhe, in der wir uns hier in dieser Diskussion befinden tatsächlich auch die Bevölkerung mitnehmen.

01:17:22: Denn ich habe immer wieder Diskussionen auch mit Politikern, die dann sagen na ja autonome Waffensysteme um darauf zu kommen.

01:17:30: ein sehr einfaches Argument was jeder versteht ist da lassen wir nicht mehr unsere Söhne und Töchter aufeinander schießen.

01:17:36: das ist menschliches Leidmensch der Tod das lassen wir Maschinen entscheiden und fertig Das kommt super an bei den Menschen.

01:17:43: Wenn man eine Umfrage machen würde in einer Bevölkerung, würden sie sagen ja das wollen wir.

01:17:46: Wir wollen auf keinen Fall Werpflicht oder Losverfahren oder dass unsere Söhne und Töchter jetzt wieder im Krieg ziehen müssen.

01:17:53: Da müssten wir darauf regnen.

01:17:54: Das sind politische Fragen wo Mehrheiten dann möglicherweise politische Entscheidungen auch treffen.

01:18:00: Und was den Einsatz angeht Auch da wie ich als bekennender Christ- und Europäer der solche kontroversen Diskussionen mag müssen wir aufpassen, dass wir nicht abgehängt werden.

01:18:11: Wenn hier vorne jetzt ein blonder Mensch aus USA sitzen würde mit wirren Haaren, der würde sagen America first, er würde sagen ich entfessel das nur damit wir unsere Superiorität in dieser Welt sichern können.

01:18:26: I don't care.

01:18:28: und da müssen wir sehen, als Menschen die differenziert denken und unsere Freiheit und auch unsere Entscheidungsfreiheit behalten wollen dagegen ankommen irgendwie Werte basiert, Mehrheiten und demokratisch regiert werden.

01:18:45: Und uns nicht dominieren lassen nur weil jemand viel mächtigere vielleicht autonome durch geige steuerte Waffensysteme hat.

01:18:52: Ich habe also wie gesagt keine Antworten aber mehr Fragen und echte Bedenken und Sorgen was diese Diskussion angeht und diese exponentielle Entwicklung, die wir haben

01:19:04: in der KI.

01:19:05: Je mehr Daten anfallen, je mehr wir Chat-GPT nutzen, desto schneller lernt das auch.

01:19:11: Wie kommen wir da bei diesen Fragen, die hier gerade aufgeworfen wurden weiter?

01:19:16: Und können wir das überhaupt noch regulieren?

01:19:19: Es ist ja ganz spannend im Zusammenhang zu sehen wie wichtig ethische Bildung oder kompetenzerwerb ist.

01:19:28: Wir haben im Institut sprechen immer ganz gerne voneinander Moral Fitness, die man sich erarbeiten muss.

01:19:34: Können wir das tatsächlich an dieser Stelle auch noch angesichts dieser hyperkomplexen Fragen?

01:19:41: Und was heißt eigentlich Moral fitness?

01:19:45: wie muss das ausschauen?

01:19:47: Wir können Räume eröffnet werden, dass Menschen innerhalb unserer Gesellschaft auch die Möglichkeit haben sich diesen Fragen zu stellen.

01:19:57: Sich damit auseinandersetzen zu können bei uns an der Sanitätsakademie.

01:20:01: Sie wissen es Herr Generals ist ein riesen Thema.

01:20:04: wie viel Ethikunterricht kriegen wir in die Lehrgänge?

01:20:08: brauchen die Leute um da auch vernünftig mit diesen Fragen umgehen zu können?

01:20:14: Vielleicht Sie haben eine weitere Frage.

01:20:17: Ich bin ein weniger schreckt, dass im Bereich der Programmiausbildung so wahnsinnig wenig wenn mit KI gearbeitet wird oder in die Richtung KI programmiert wird dann auch dieser Aspekt der ethischen Betrachtung.

01:20:32: also in welche Richtung wollen wir nachher autonom möglicherweise Entscheidungen treffen lassen?

01:20:37: Also in Richtung meint wegen eines Zufalls Generators, der ja nie zufällig ist mathematisch.

01:20:43: Aber den man sich irgendwie vorstellen muss dass man da doch irgendwie etwas macht was der Mensch möglicherweise auch in seinen Schrecksekunden irgendwie macht aus dem Impuls heraus je nachdem wer sozialisiert ist Und als Programmierer dann sich überlegt, wie mache ich das am geschicktesten?

01:20:57: Dass der Mensch nicht das Gefühl hat in einer brenzlichen Situation.

01:21:00: Wie zum Beispiel ich überfahre weiß nicht zwei alte Leute und fünf junge Leute oder umgekehrt.

01:21:04: Es gibt keine Alternative.

01:21:06: also ich kann nicht bremden, ich muss irgendwann überfahren.

01:21:08: Wie mache ich dass so, dass sie das so programmieren können, dass es ein ethisches Dilemma löst im Anführungszeichen.

01:21:13: Dass der Menschen nicht nachher in der Verantwortung bleibt.

01:21:16: Das Problem ist eines was er sich nicht lösen kann, was auch nicht löseln könnte ohne KI.

01:21:21: Also da bin ich ein bisschen erschreckt, weil wir tatsächlich auf unserer unteren Ebene im Bereich der Ausbildung als Techniker schon in Anführungszeichen weiter sind.

01:21:32: Weil der Bereich Ethik bei uns eine große Rolle spielt im Bereich des KI und auch bewusst eine große Role

01:21:37: spielt.

01:21:38: Was wird

01:21:38: genau gemacht?

01:21:39: Wir machen tatsächlich unter der Begleitung der Militärseelsorge, machen wir Seminare.

01:21:45: was passiert in der Betrachtung Wie löst man in der KI, oder wie kann man in einer KI-Dilemma lösen?

01:21:53: Oder wo sind überhaupt die Lämmer da.

01:21:55: Damit man als Programmierer, der ja eigentlich nur stumpf Code programmiert dann auch in das Bewusstsein kommt Ja ich habe da etwas, worüber ich nachdenken muss.

01:22:04: Das bringen mich zu einem zweiten Punkt und das ist tatsächlich eine sehr schwierige Frage.

01:22:10: Ich

01:22:10: bin ein Patriot Mensch.

01:22:14: Also ich komme aus dem Waffensystem Patriot Und da haben wir unser Waffensystem und das konnte immer schon zwei Modi, nämlich einmal den automatischen Bekämpfungsmodus und dem semi-automatischen Bekämpfung Modus.

01:22:32: Bei den Amerikanern war es völlig klar dass der automatische Bekäpfungsmodus eingeleitet oder eingestellt wird und der Mensch unterbricht dies.

01:22:39: Der sitzt da, guckt sich das Ganze an und unterbrennt das System.

01:22:43: Weil uns war das völlig klar, das Prinzip war Friendly Protect ganz groß.

01:22:49: Das war bei allen Prüfungen ein Killkriterium, wenn wir irgendwas automatischer machen lassen oder irgendwie einen Freund runtergeholt hat.

01:22:57: Das war ja beim ersten Irak Krieg, wo Patrick das erste Mal eingesetzt war und ein großes Problem in der Software.

01:23:04: Bei den Deutschen

01:23:04: insbesondere

01:23:05: aber auch bei den Kontinental-Europäern war das ganz bewusst so dass der Mensch dem Bekämpfungsmodus einleitet aktiv Mit Unterstützung des Waffensystems, weil er sagt hier folgende Bedrohungsreinfolge habe ich festgestellt und du Mensch machst aber was draus.

01:23:23: Das Einzige wo wir es nicht gemacht haben ist bei der Bekämpfung von taktisch-balistischen Flugkörpern, weil da niemand drin sitzt.

01:23:30: Da haben wir gesagt wenn die auf uns draufgehen und so etwas nach gewissen Kriterien werden ja automatisch bekämpft.

01:23:35: Und da sehe jetzt das Problematik zwischen den verschiedenen ethischen Betrachtungen.

01:23:40: Die Amerikaner sind völlig anders in ihrer, in der Betrachtung was ist für sie ethisch verwerflich oder nicht verwerfig?

01:23:46: und die Kontinental-Europäer.

01:23:48: Und wenn wir jetzt auf das humanitäre Völkerrecht noch gehen dann fragt man sich ja auch Was gilt mir?

01:23:54: Das war für mich immer als junger Chef schon ein Riesenproblem, weil ich das humanitiere Völgerecht unterrichten musste.

01:24:00: Was hilft mir das humanitaire Völkerecht, wenn der Gegner sich nicht daran hält?

01:24:05: Da sind wir in einer ethischen Betrachten genau gleich weit.

01:24:07: Was passiert, wenn die Ethik für andere keine Rolle spielt?

01:24:16: Ich glaube an dem Punkt spielt ein Aspekt eine wichtige Rolle, den auch Frau Professor Grimm stark gemacht hat.

01:24:25: Nämlich einen tugend ethischer Ansatz und die Frage, die dahinter steckt, nämlich nach dem guten Leben oder die Frage nach dem gelingenden Leben.

01:24:35: Und ich glaube das humanitäre Völkerrecht wenn wir jetzt mal von dem rechtlichen Aspekt abstrahieren sondern und dann auf die Werte, Prinzipien und Normen schauen, die dem humanitären Völkerrecht zugrunde liegen.

01:24:48: Hilft tatsächlich genau dazu also ein gutes Leben, ein Leben das ich auch nach dem Krieg mir gegenüber noch verantworten kann zu leben.

01:25:00: Auch mit mir selber auch nach einer solchen Herausforderung auch leben zu können.

01:25:06: bei all den Dilemmata, die man erlebt vielleicht für die ist das Kind zeichnet das Dilemma dass es den schuldlosen Ausgang nicht gibt, so hat das Nikolaj Hartmann einmal formuliert.

01:25:16: Es gibt nicht den Ausgang im Dilemma wo sie nicht einen Preis zahlen müssen.

01:25:20: die entscheidende Frage ist kann ich den Preis verantworten ja oder nein?

01:25:26: Sie haben eine weitere Frage für uns.

01:25:29: Um Ergebnisse einer KI tatsächlich auch deuten zu können brauchen wir ja ein gewisses Wissen.

01:25:35: und was meine sie?

01:25:36: wie lang haben wir als Menschen eigentlich noch ausreichend eigenes Wissen um das tatsächlich beurteilen zu können.

01:25:44: Sie haben ja als ein Risikofaktor genannt, dass die KI in der Bildung immer wichtiger wird und wir sehen auch bei unseren Schülern, dass leider ganz oft erst mal nicht nachgedacht wird sondern einfach nur im ChatGBT kurz die Aufgabenstellung reingeschmissen wird und dann wird die Lösung einfach genommen egal ob sie gut ist oder nicht und auch egal ob es korrekt ist oder noch nicht und das Wissen landet gar nicht mehr im Hirn der Schüler.

01:26:12: Wie lang dauert es also Ihrer Meinung nach noch, dass wir gar nicht mehr in der Lage sind tatsächlich eine eigenständige Betrachtung der Ergebnisse durchführen zu können?

01:26:24: Also da gibt's ja zwei Aspekte die dann in der Frage drinstecken.

01:26:30: Es gibt ja einige, die jetzt schon auch durchaus aus ökonomisch und technischer Sicht sagen Wir laufen Gefahr, dass die KI komplett dumm wird.

01:26:42: Weil sie sich immer wieder auf sich selbst bezieht.

01:26:45: Also irgendwann sind wir an dem Punkt wo KI quasi alles Mögliche abgegrast hat und Sie sich eigentlich nur repetitiv wieder das ausspuckt was sie im Grunde genommen schon weiß also kein Wissens zu gewinnen mehr möglich.

01:26:59: ist es so die eine These Die andere Bezug Auf Kinder- und Jugendliche?

01:27:05: da würde ich sagen Da sehe ich eine tatsächliche Gefahr, weil natürlich das System Bildung momentan nicht genügend gewappnet ist um die zu stärken, die ja schon ein Unrechtsgefühl haben.

01:27:23: Also es gibt ja viele Schüler, die schon sagen Ja aber das ist sehr unfair wenn dann der oder die die Jajapiti genutzt hat ne bessere Note bekommt als ich der sich noch angestrengt hat.

01:27:36: Das heißt aber, es gibt trotzdem bei uns immer noch den Impuls.

01:27:40: Wir möchten uns eigentlich anstrengen, wir möchten lernen und was wissen.

01:27:44: Aber das System muss natürlich auch in einer gewissen Art und Weise honorieren wenn wir diese Anstrengung unternehmen.

01:27:53: Und ich sehe da vor allen Dingen eher die Frage nicht absoluten sondern die Frage wieder dieses Digital Gap, dass wir also letztendlich immer noch eine Gruppe von Kindern und Jugendlichen und Heranwachsenden haben werden.

01:28:10: Die sehr leistungsorientiert sind die TKI Bestens auch einsetzen kann für die eigenen Zwecke und damit auch weiter kommt und eine ganz große Gruppe, die genau das ist in die Gefahr läuft.

01:28:26: eben hier eigenes Denken Wir haben ja eh schon das Problem, dass durch Social Media Zeit gefressen wurde.

01:28:34: Aufmerksamkeitsdefizite Kinder und Jugendlichen haben großes Problem mal eine Seite Text zu lesen.

01:28:41: wenn es dann noch ein bisschen sprachlich schwieriger ist dann steigen sie komplett aus.

01:28:45: also sozusagen diese Ich schon gehören.

01:28:49: Strukturierung komplexen Denkens und darum geht es ja eigentlich, wir müssen lernen Komplex zu denken damit wir komplexe Sachverhalte beurteilen können.

01:28:58: Und das glaube ich sind wir gerade an dem Punkt wo wir in der Bildung uns nochmal überlegen müssen wie kriegen wir die Kinder dazu zu begreifen?

01:29:10: interessant und lustvoll zu finden, sich geistig anzustrengen und was leisten zu wollen.

01:29:16: Aber nicht einfach nur um das Leisten willen sondern auch um Erfahrungen eine größere Erfahrung wenn ich eine Sprache lerne oder wenn ich einen Text gelesen habe, wenn ich ein Rechenaufgabe geschafft hab dann macht es ja aus mir noch mehr Ja?

01:29:31: Ich bin dann Autorschaft eines Gedankengangs und das ist glaube ich, das wollte ich vorhin noch sagen.

01:29:37: Das ist möglicherweise eine große Kränkung die da auf uns zukommt dass mittlerweile KI verblüffend gute Ergebnisse in vielen Bereichen herstellen kann und wie gerade sie ja auch gesagt hatten Die Diagnosen tatsächlich so gut sind dass man das als Arzt eventuell als kränkung empfinden

01:29:55: kann.

01:29:56: Ja also wo is dann?

01:29:58: Wir müssen möglicherweise viele Berufe neu definieren.

01:30:01: Wo ist dann der zukünftige Arzt?

01:30:02: Was musste eigentlich noch besonders gut können, musst du dir vielleicht mehr auch überlegen wie bring ich den Patienten bei?

01:30:10: Wie gehe ich das auf der psychologischen Ebene?

01:30:12: Wie kann man eventuell auch dafür sorgen dass entsprechende Maßnahmen eingeleitet werden?

01:30:21: also Ich glaube, dass wir da vor einer Wahnsinstransformation unserer Gesellschaft stehen.

01:30:27: Die wenn es übel rausläuft auch noch militärisch bös ausgeht aber... Ich glaube, zumindest ist es gerade so ein Schwung festzustellen bei vielen.

01:30:37: Dass auch die Frage nach den Werten und KI ja immer mehr sich auftränkt.

01:30:43: Und hier also so erlebts ich in Unternehmen eine große Offenheit für das Thema Ethik und natürlich eigentlich auch von Seiten der Bildung bloß oft meins man nicht weiß wie man das umsetzen will.

01:30:56: Also die Umsetzung ist das große Problem.

01:31:00: vielleicht ist es dann doch spannender, schlecht Französisch zu sprechen als perfekt sich übersetzen zu lassen.

01:31:08: Um dort diesen Gedanken aufzugreifen den Sie auch in Ihrem Vortrag hatten dass wir uns das sparen können Französich zu lernen.

01:31:15: es kann einfach durchaus auch ein Reiz haben und lustvoll sein eine Sprache zu lernen auch wenn ich sie nicht so perfekt karten.

01:31:22: Wir haben noch eine Frage ja.

01:31:23: Ja erlauben Sie mir vielleicht noch eine frage.

01:31:25: jetzt hatten Sie ja Doktor Dr.

01:31:26: Fischer erwähnt Es braucht die Reflexion über die eigenen Werte, um verantwortungsvolle Entscheidungen treffen zu können.

01:31:33: Moral Fitness hatten Sie es genannt und ebenso wurde erwähnt dass die Programmierer dieser KI wissen oder wissen müssen was sie da tun.

01:31:43: aber es braucht als dritten Anteil auch für die Anwender eine klare Information darüber worauf die Funktion dieser KI basiert.

01:31:52: Also was, die ethischen Normen sind, die dahinter liegen?

01:31:55: Was auf welchen Grundsätzen das basiert um dann abwägen zu können?

01:32:00: Wenn also überwiegend hier meine Werte, meine persönlichen Werte oder verlasse ich mich auf die ethische Werte die dieser KI zugrunde gelegt worden sind durch Programmierer gibt es in der Ansätze dass dem Anwender klar offen darzulegen und so sagen wenn ihr diese Anwendung verwendet werden Entscheidungen auf utilizeristischer oder sonstigen philosophischen Überlegung tatsächlich auch geschehen.

01:32:28: Also ich glaube, dass das ein wichtiger Punkt, den Sie da ansprechen und es ist genau dieser Punkt wo's auch um diesen gesellschaftlichen Diskurs geht ja in denen wir einsteigen.

01:32:39: Ich glaube DKI ist ein Beispiel dafür.

01:32:42: aber wir haben auch andere Beispiele Wo wir feststellen, dass so Wertearbeit will heißen also die Beschäftigung auch mit Werten eine ganz wichtige Rolle spielt.

01:32:53: Wir sehen das zum Beispiel bei unseren jungen Ärztinnen und Ärzten.

01:32:56: wenn sie an der Akademie kommen Stellt Ihnen immer die Frage, welche Werte sind das eigentlich?

01:33:01: Die für Sie eine wichtige Rolle spielen als Arzt, als Ärztin, als Soldat.

01:33:07: Oder vielleicht auch als Vater oder als Mutter um den zivilen Kontext dort mit reinzunehmen.

01:33:13: und es ist ganz spannend zu sehen dass viele dann sagen Ohne habe ich noch nicht darüber nachgedacht.

01:33:18: Ich kann diese Frage nicht sofort beantworten Und ich glaube das ist etwas was uns jetzt an der Akademie auch sehr wichtig ist Räume zu eröffnen, dass man individuell aber auch miteinander in so einen Reflexionsprozess eintreten kann.

01:33:34: Dass ich meine eigenen Werte kenne und weiß was steht eigentlich auf dem Spiel wenn Menschen sich nicht mehr an das humanitäre Völkerrecht oder die Gentverkonventionen handeln?

01:33:46: Da wird ja tatsächlich dann auch etwas verletzt.

01:33:49: Wir kennen heute dieses Phänomen der Moral Injury oder moralischen Verletzung und es ist alles andere als unerheblich.

01:33:55: Also das selbst auch kennen zu können, ist etwas was wir individuell leisten müssen.

01:34:00: Ist aber auch etwas dass wir dann wenn wird es tun in einem meinschaftlichen Diskurs leisten müssen.

01:34:05: und das immer wieder anzustoßen im Kleinen und aber auch darüber hinaus als Gesellschaft das ist glaube ich was ganz ganz wichtiges.

01:34:13: Wir haben ein Forschungsprojekt das heißt IKID.

01:34:16: da geht's darum wie kann man in der Lehre diese Interdisziplinarität herstellen.

01:34:22: Also wie schafft man es, dass auch Informatiker sich überhaupt mit diesen Fragen beschäftigen können?

01:34:27: Da müssen sie nämlich entsprechende sozusagen Gefäße schaffen wo dieser Austausch möglich ist – mit Nicht-Informatikern und Ethikern aber auch Ethikerlernen von den Informatiktern ebenso wie vom Wirtschafts-, Wissenschaftlern, also dass wir auch die Juristen, dass wir stärker in diese Multiperspektivität kommen schon in der Ausbildung.

01:34:51: Also das es nicht nach wie vor so ganz starke Disziplin-Schranken gibt, die einfach verhindern sozusagen Fluid in einen Durchkommen möglich ist.

01:35:03: Und dass auch Informatikerinnen und Informatikern schon sehr früh überhaupt mitbekommen, dass eben Technik nicht neutral ist sondern dass sie immer mit bestimmten Wertungen gekoppelt sind.

01:35:16: Also dieses Bewusstmachen überhaupt ja!

01:35:19: Ich habe festgestellt die Informatiksstudierenden, die zu mir kommen, die sind höchst interessiert genau an diesen Fragen und würden sich auch gerne damit mehr beschäftigen ist aber eigentlich bislang nicht vorgesehen gewesen vom Kurikolum.

01:35:32: Und das heißt, da muss auch ein bisschen mehr passieren.

01:35:36: Ich glaube ich würde noch was weiter betonen wollen und zwar die Frau Grim hat es schon angesprochen – also das ist ja auch ganz wichtig.

01:35:45: Sie haben es vorhin gesagt sie würden sich sofort wenn's um schwarze Hautkrebserkennung….

01:35:50: Das ist eine super Entscheidung weil sie weiß sind!

01:35:53: Aber fragen Sie mal jemanden in den Farbigen, da ist die Datenlage einfach nicht so gut.

01:35:57: Oder wenn jemand eine Erkrankung hat, die sehr selten ist, haben wir kaum Daten?

01:36:02: Da ist natürlich KI auch nicht gut und das muss man immer dazu sagen dass es sowohl eine Datenarmut gibt aber auch dieses Big Data Konzept.

01:36:12: und dann ist eben KI einmal gut und einmal nicht gut.

01:36:15: Und wir haben dieses Datenphänomen auch bei der gerade angesprochenen Frage zu, welche Werte liegen darunter?

01:36:24: Dass ChatGBT beispielsweise eher ein autoristischer Ansatz hat liegt ja hauptsächlich darin dass amerikanische Daten verwendet werden.

01:36:33: Da kommt der Ansatz her aus dem angloamerikanischen Raum.

01:36:36: dann sieht man das natürlich auch in der KI.

01:36:38: also man sieht auch

01:36:39: was eine

01:36:41: KI für ein Wertesystem hat, wenn man schaut aus welchen Kulturraum beziehungsweise aus welchem Kulturaum kommen die Daten.

01:36:49: Also daran kann man es erkennen und wenn wir dann auch wieder bei autonomem Waffensystem sind das kennen Sie alle sie sind alle im militärischen Kontext.

01:36:57: Wir haben

01:36:58: eine extreme Abhängigkeit von Daten.

01:37:01: Das wissen wir jetzt alles.

01:37:02: spätestens seit dem Ukraine Einsatz wissen uns in der Öffentlichkeit dass wir davon extrem abhängig sind und das betrifft eben Sowohl KI als auch softwarebedingte Waffensysteme.

01:37:13: Eine Frage haben wir noch und dann müssen wir leider schon zu einem Ende kommen?

01:37:19: Ich frage ganz schnell.

01:37:20: Vorsitzende Richter am Tropendienstgericht, auf der Einladung zum heutigen Tag steht ja nicht nur die Frage oder das Thema sondern sitzt auch schon der zukünftige Kollege von mir mit Hammer so'n Quatsch aber gut und ohne Robbe allerdings also nach deutschem Richtergesetz nicht zulässig.

01:37:37: Mich würde schon interessieren bei so vielen Soldatinnen und Soldaten, wer es eigentlich gut fängt.

01:37:41: Wenn

01:37:42: ein

01:37:43: großes Sprachmodell einen Urteil fällen und begründen würde?

01:37:48: Es hätte den Vorteil des Gegens mit Sicherheit deutlich schneller und das ist ja ein hohes Gut.

01:37:52: aber ich will mal die Frage lieber zwei Fragen ans Panel richten die mich da aus eigener Betroffenheit bewegen.

01:37:58: erstens kann KI vorurteilsfrei sein?

01:38:03: und zweitens Wann bin ich denn nur als Richter eigentlich überflüssig?

01:38:08: Naja, Sie arbeiten ja hier nämlich an oder in Deutschland.

01:38:11: Na dann ist einen so froh im chinesischen Kontext und sie wären keine Ahnung Verkehrsrichter oder ordnungsmäßig irgendwie involviert falls jemand bei Rotol die Ampel läuft Dann werden Sie jetzt schon arbeitslos.

01:38:37: Die machen hauptsächlich Vertragsrecht und der hat jetzt seine Kanzlei verkauft, seine Sozialität.

01:38:43: Weil er komplett auf Artificial Intelligence umstellt.

01:38:47: Er sagte

01:38:48: vertrags Recht

01:38:49: kann KI – das ist teure KI, das ist jetzt nicht Chess GPT die man sich so runterladen kann – deutlich besser als gute junge Juristen.

01:38:57: also

01:38:58: er lässt über Vertragsentwürfe von jungen.

01:39:02: Wie heißt das bei Ihnen, wenn man gut im Examen gemacht hat?

01:39:04: Prädikatsjuristen schreiben.

01:39:08: Sie zeigt genau die Fehler da, wo man sie erwartet und der arbeitet jetzt mit vierzig Prozent weniger Personal.

01:39:18: Da kommt was auf uns zu.

01:39:20: Ergänzend dazu eigene Erfahrungen eine rechtliche Fragestellung in Bezug.

01:39:27: Eine simple Geschichte, bei einer Wohnungseigentümergesellschaft konnte JGPT nur falsch beantworten.

01:39:39: Also gerade ich denke das ist das Problem dass wenn diese KI vielleicht nochmal für einen bestimmten Bereich wirklich auch noch mal programmiert und getrainert wurden ja Aber im Allgemeinen kann ich mich nicht drauf verlassen und in meiner Arbeit schon gar

01:39:56: nicht.

01:39:57: Ich verwendet es nie zur Recherche, weil was die mir daraus spuckt an Konfabuliererei?

01:40:02: Die Bücher gibt's nicht den Titel gibts nicht oder wenn dann einem ganz anderen.

01:40:07: also das sind wirklich ganz viele falsche Informationen wo ihr mehr Zeit und mehr Arbeit investieren müsst um das alles zu überprüfen.

01:40:16: ja von daher stellt sich ja genau wieder diese Frage der Autorschaft und der Kompetenz in der Beurteilung.

01:40:24: Wenn ich die natürlich nicht mehr habe, bin ich lost komplett.

01:40:27: Ja nur ganz kurz aber das kann mit der vorherigen Frage nach dem Wissen und dem Kontextwissen dass man haben muss auch noch mal verbinden.

01:40:35: Ich meine Fissen ist auch so ein ganz alter philosophischer Ausdruck.

01:40:41: schon bei Platon wird also in den Dialogen drüber gestritten, was ist Wissen und was so als Minimalkonsens rauskommt.

01:40:48: Das ist wahre Meinung.

01:40:50: Ja?

01:40:50: Also doxadiality irgendwie Wahres ja das ist dann Episteme die das wissen.

01:41:00: Und was daran interessant ist dass es eben einen Wahrheitsbezug hat wenn wir Wir können alles mögliche natürlich glauben für Wahrheiten und wir werden vielleicht auch nie korrigiert darin aber Wir wissen, worauf wir aus sind.

01:41:16: Wenn wir wissen wollen oder wenn wir darauf aus sind dass wir das wahre Wissen also und in ganz vielen Fällen vertrumen uns natürlich Und in vielen fällen merken es wir wahrscheinlich nie oder so etwas aber wir sind darauf aus und der Bezug der kennt zeichnet uns wenn ich so will jetzt anthropologisch als menschen dass wir darauf Aus sind.

01:41:41: Ich kann also gut verstehen, dass zum Beispiel eine gute Software an KI ein Optimierungsproblem lösen kann.

01:41:48: Dass man vielleicht eben hat, wenn wir im Wirtschaftsvertragsrecht irgendwie für beide Parteien oder für mehrere Parteien sozusagen die bestmögliche Lösung haben will.

01:41:58: Man sagt ja so ich habe die und die Interessen.

01:41:59: Wir speisen das ein.

01:42:00: Das sind alles sozusagen Faktoren und dann brauche ich eine optimierte Lösung solches, also das auch juristische Hilfe.

01:42:12: Aber wenn es jetzt zum Strafrecht beispielsweise geht, klar kann ich sagen in einem gewissen Sinn ist dieser Strafrichter oder die Strafrechterin die KI-Basierte der hier irgendwie unparteiischer in dem Sinne dass sie nicht emotional darauf reagiert und diese ganzen Dinge.

01:42:29: Klar!

01:42:29: Und das kann vielleicht auch in der funktionalen Perspektive das optimiertere Ergebnis bedeuten.

01:42:36: aber Die KI ist nicht aus auf Wahrheit, die ist nicht darauf aus was es wirklich passiert.

01:42:47: Was ist jetzt hier sozusagen das eigentliche richtige Urteil?

01:42:55: Also man ist vielleicht auch das Strafrichter mit der Situation konfrontiert dass irgendwie ein Publikum ein bestimmtes Urteil will Und man hat dann zwei widerstrebende Ziele, nämlich das eine ist die Befriedung des Publikums und das andere ist das gerechte Urteil.

01:43:12: Könnte ja passieren!

01:43:13: Aber da geht mir doch als Richter nicht her und sagt ich ziehe jetzt die Befriedung des Publicums dem Urteil vor dass sich im Anbetracht der Sache sozusagen sprechen müsste aber dieses Aussein auf gewissermaßen wirklich Sache ist, ja.

01:43:33: Der lateinische Ausdruck ist Reis, also die Realität.

01:43:36: Das ist bei der KI gar nicht da!

01:43:39: Die hat keine Realität außer ihrer selbst auf diese sich bezieht.

01:43:45: Ja?

01:43:45: Sondern sie beziezt sich sozusagen immer nur auf das womit es sowieso schon dauernd handiert.

01:43:51: Die stört sich dann auch nicht dran, wenn sie zum Beispiel völlig dumm ist weil sie immer mit den gleichen Daten geführt hat oder sonst nicht.

01:43:57: Das ist kein Ausgriff.

01:43:58: und da haben wir so viel... Wir sind anthropologisch so viel reichhaltiger ja?

01:44:02: Und das ist halt auch etwas was man immer rausstreichen muss Ja und Was wir heute nicht verlieren dürfen in den ganzen funktionalen Erfolgen die uns die KI natürlich bittet.

01:44:14: aber kommt mir vor Das ist ein wunderbares Schlusssatz.

01:44:19: Wir sind anthropologisch, wir sind als Menschen so viel reichhaltiger.

01:44:25: mit dem Satz würde ich Sie ganz gerne jetzt auch in die Diskussion, die sie hoffentlich auch beim Abendessen noch miteinander führen werden entlassen, dass Sie dem nachspüren und dass Sie da drauf schauen.

01:44:36: Ich glaube das es ganz viele Fragen gibt, die vielleicht auch erst im Nachgang zu unserer heutigen Veranstaltung in Ihnen aufkommen werden.

01:44:44: diskutieren Sie das miteinander.

01:44:46: Das ist ja mein Appell an sie alle, kommen Sie ins Gespräch miteinander jetzt auch gleich beim Abendessen mit uns und wie gesagt auch untereinander in Ihrer Tischgemeinschaft.

01:44:57: Vielen herzlichen Dank dass wir hier sein durften, dass wir diesen Tag mit Ihnen auf die Podiumsdiskussion bestreiten durften.

01:45:04: Danke schön!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.