Diese Website verwendet Cookies. Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen. Bei uns sind Ihre Daten sicher. Wir geben keine Ihrer Analyse- oder Kontaktdaten an Dritte weiter! Weiterführende Informationen erhalten Sie in der Datenschutzerklärung.
Wichtiger Hinweis: Die Sendungen in der Kategorie "Bildung unzensiert" sind teilweise nur für einen kurzen Zeitraum verfügbar!
Samstag, 06.06.2020
Subtitle "Afrikaans" was produced by machine.Subtitle "አማርኛ" was produced by machine.Subtitle "العربية " was produced by machine.Subtitle "Ārāmāyâ" was produced by machine.Subtitle "azərbaycan dili " was produced by machine.Subtitle "беларуская мова " was produced by machine.Подзаглавието "България" е създадено от машина.Subtitle "বাংলা " was produced by machine.Subtitle "བོད་ཡིག" was produced by machine.Subtitle "босански" was produced by machine.Subtitle "català" was produced by machine.Subtitle "Cebuano" was produced by machine.Subtitle "ગુજરાતી" was produced by machine.Subtitle "corsu" was produced by machine.Podtitul "Čeština" byl vytvořen automaticky.Subtitle "Cymraeg" was produced by machine.Subtitle "Dansk" was produced by machine.Untertitel "Deutsch" wurde maschinell erzeugt.Subtitle "Untertitel" was produced by machine.Subtitle "Ελληνικά" was produced by machine.Subtitle "English" was produced by machine.Subtitle "Esperanto" was produced by machine.El subtítulo "Español" se generó automáticamente.Subtitle "Eesti" was produced by machine.Subtitle "euskara" was produced by machine.Subtitle "فارسی" was produced by machine.Subtitle "Suomi" was produced by machine.Le sous-titre "Français" a été généré automatiquement.Subtitle "Frysk" was produced by machine.Subtitle "Gaeilge" was produced by machine.Subtitle "Gàidhlig" was produced by machine.Subtitle "Galego" was produced by machine.Subtitle "Schwizerdütsch" was produced by machine.Subtitle "هَوُسَ" was produced by machine.Subtitle "Ōlelo Hawaiʻi" was produced by machine.Subtitle "עברית" was produced by machine.Subtitle "हिन्दी" was produced by machine.Subtitle "Mẹo" was produced by machine.Subtitle "Hrvatski" was produced by machine.Subtitle "Kreyòl ayisyen " was produced by machine.Subtitle "Magyar" was produced by machine.Subtitle "Հայերեն" was produced by machine.Subtitle "Bahasa Indonesia " was produced by machine.Subtitle "Asụsụ Igbo " was produced by machine.Textun"Íslenska" var framkvæmt vélrænt.Sottotitoli "Italiano" sono stati generati automaticamente.字幕は"日本語" 自動的に生成されました。Subtitle "Basa Jawa" was produced by machine.Subtitle "ქართული" was produced by machine.Subtitle "қазақ тілі " was produced by machine.Subtitle "ភាសាខ្មែរ" was produced by machine.Subtitle "ಕನ್ನಡ" was produced by machine.Subtitle "한국어" was produced by machine.Subtitle "कोंकणी語" was produced by machine.Subtitle "کوردی" was produced by machine.Subtitle "Кыргызча" was produced by machine.Subtitle " lingua latina" was produced by machine.Subtitle "Lëtzebuergesch" was produced by machine.Subtitle "Lingala" was produced by machine.Subtitle "ພາສາ" was produced by machine.Subtitle "Lietuvių" was produced by machine.Subtitle "Latviešu" was produced by machine.Subtitle "fiteny malagasy" was produced by machine.Subtitle "te reo Māori" was produced by machine.Subtitle "македонски јазик" was produced by machine.Subtitle "malayāḷaṁ" was produced by machine.Subtitle "မြန်မာစာ " was produced by machine.Subtitle "Монгол хэл" was produced by machine.Subtitle "मराठी" was produced by machine.Subtitle "Bahasa Malaysia" was produced by machine.Subtitle "Malti" was produced by machine.Subtitle "ဗမာစာ " was produced by machine.Subtitle "नेपाली" was produced by machine.Subtitle "Nederlands" was produced by machine.Subtitle "Norsk" was produced by machine.Subtitle "chiCheŵa" was produced by machine.Subtitle "ਪੰਜਾਬੀ" was produced by machine.Subtitle "Polska" was produced by machine.Subtitle "پښتو" was produced by machine.Subtitle "Português" was produced by machine.Subtitle "Română" was produced by machine.Subtitle "Язык жестов (Русский)" was produced by machine.Субтитры "Pусский" были созданы машиной.Subtitle "Kinyarwanda" was produced by machine.Subtitle "सिन्धी" was produced by machine.Subtitle "Deutschschweizer Gebärdensprache" was produced by machine.Subtitle "සිංහල" was produced by machine.Subtitle "Slovensky" was produced by machine.Subtitle "Slovenski" was produced by machine.Subtitle "gagana fa'a Samoa" was produced by machine.Subtitle "chiShona" was produced by machine.Subtitle "Soomaaliga" was produced by machine.Subtitle "Shqip" was produced by machine.Subtitle "србски" was produced by machine.Subtitle "Sesotho" was produced by machine.Subtitle "Basa Sunda" was produced by machine.Undertext "Svenska" är maskinell skapad.Subtitle "Kiswahili" was produced by machine.Subtitle "தமிழ்" was produced by machine.Subtitle "తెలుగు" was produced by machine.Subtitle "Тоҷикй" was produced by machine.Subtitle "ภาษาไทย" was produced by machine.Subtitle "ትግርኛ" was produced by machine.Subtitle "Tagalog" was produced by machine.Subtitle "Türkçe" was produced by machine.Subtitle "татар теле" was produced by machine.Subtitle "Українська " was produced by machine.Subtitle "اردو" was produced by machine.Subtitle "Oʻzbek" was produced by machine.Subtitle "Tiếng Việt" was produced by machine.Subtitle "Serbšćina" was produced by machine.Subtitle "isiXhosa" was produced by machine.Subtitle "ייִדיש" was produced by machine.Subtitle "Yorùbá" was produced by machine.Subtitle "中文" was produced by machine.Subtitle "isiZulu" was produced by machine.
kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не носи отговорност за некачествен превод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nenese žádnou odpovědnost za chybné překlady.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV übernimmt keine Haftung für mangelhafte Übersetzung.kla.TV accepts no liability for inadequate translationkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV no se hace responsable de traducciones incorrectas.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV n'assume aucune responsabilité en cas de mauvaise traduction.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nem vállal felelősséget a hibás fordításértkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV tekur enga ábyrgð á áræðanleika þýðingarinnarKla.TV non si assume alcuna responsabilità per traduzioni lacunose e/o errate.Kla.TV は、不適切な翻訳に対して一切の責任を負いません。kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не несет ответственности за некачественный перевод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.Kla.TV tar inget ansvar för felaktiga översättningar.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.
Digitale Transformation aus ethischer Perspektive (Vortrag von Prof. Dr. Peter G. Kirchschläger)
Am 15. Februar 2020 hielt Prof. Dr. Peter Kirchschläger einen Vortrag mit dem Titel „Digitale Transformation aus ethischer Perspektive – Ethische Chancen und Risiken der digitalen Transformation – Ethische Überlegungen zu 5G – von Menschen und Maschinen“. Hier erwartet Sie eine spannende Auseinandersetzung mit erkennbaren Fakten von Mensch und Maschine, deren Gefahren sowie Vor- und Nachteilen.
Welche Ziele und Grenzen der digitalen Transformation müssen definiert werden?
Hören Sie den Vortrag von Prof. Dr. Peter Kirchschläger.
[weiterlesen]
Ich stehe hier vor einem Gebäude, auf dem immer mehr Mobilfunkantennen montiert werden. Politik und Wirtschaft treiben die digitale Transformation immer weiter voran, obwohl große Teile der Bevölkerung demgegenüber skeptisch sind. Prof. Dr. Peter Kirchschläger von der theologischen Fakultät der Uni Luzern hielt am 15. Februar 2020 einen Vortrag mit dem Titel: „Digitale Transformation aus ethischer Perspektive –
Ethische Chancen und Risiken der digitalen Transformation – Ethische Überlegungen zu 5G – von Menschen und Maschinen“. Kirchschläger ist bekannt aus der Arena Sendung vom SRF1 vom 8. März 2019 zum Thema: „Wer hat Angst vor 5G?“. In seinem Vortrag entfaltet er eine spannende grundlegende Auseinandersetzung mit den signifikanten Fakten von Mensch und Maschine, deren Gefahren, Vor- und Nachteilen. Ein Fazit: Softwaregesteuerte Maschinen, z.B. Autos, haben kein Gewissen. Ihre Intelligenz, Moral und Ethik entsprechen bestenfalls denjenigen Menschen, die sie programmiert haben. Es müssten daher Ziele und Grenzen der digitalen Transformation definiert werden. Sehen Sie nun den kompletten Vortrag.
Der Vortrag von Prof Dr. Peter Kirchschläger wurde anlässlich der Generalversammlung des Vereins Gigaherz gehalten. Gigaherz durfte am 15. Februar 2020 das 20-jährige Bestehen feiern. Gigaherz will erreichen, dass die Bevölkerung vor den schädlichen Auswirkungen der elektromagnetischen Strahlung geschützt wird und dass bereits Betroffene zu ihrem Recht kommen. Mehr Informationen finden sie unter www.gigaherz.ch
Guten Morgen. Auch von meiner Seite herzlichen Glückwunsch zu dem Geburtstag Ihrer Organisation. Es ist mir eine große Ehre und Freude, heute Vormittag bei Ihnen sein zu dürfen, um mit Ihnen gemeinsam über die digitale Transformation aus ethischer Perspektive nachzudenken. Was habe ich mit Ihnen vor? Ich möchte nach ein paar einleitenden Bemerkungen die Menschenwürde aller Menschen als ethischen Referenzpunkt einführen, weil es sich bei einer ethischen Betrachtung immer auch zuerst einmal um die Frage dreht: Woran wird eigentlich gemessen, wie gehe ich bei der ethischen Beurteilung vor, was ist der Maßstab? Und ich möchte Ihnen da die Menschenwürde aller Menschen vorschlagen, dann das Verantwortungsprinzip, um dann beim Bereich der Automatisierung von Mobilität auch an einem Beispiel exemplarisch durchzuführen, wie eine solche ethische Beurteilung erfolgen kann, eben hier beim Bereich der Automatisierung von Mobilität. Dann möchte ich auf die Thematik der Interaktion (Interaktion: wechselseitiges aufeinander Einwirken von Akteuren oder Systemen) zwischen Mensch und Maschine eingehen aus einer ethischen Perspektive, um dann auf globale Ungleichzeitigkeitsphänomene einzugehen, um noch das Thema Superintelligenz zu streifen, und dann mit ein paar Schlussbemerkungen zu schließen. Wenn Sie jetzt Sorge haben, dass wir dann heute um Mitternacht fertig sind, kann ich Sie beruhigen. Ich habe das so vorbereitet, dass wir pünktlich zu einem Schluss kommen, um dann noch genügend Zeit auch für ein gemeinsames Gespräch zu haben. Also würde ich Sie einladen: Schreiben Sie ihre Kommentare, Fragen, Kritik bereits laufend auf, damit wir dann möglichst intensiv miteinander noch in den Austausch kommen können.
Gut, legen wir los. Einleitend möchte ich darauf hinweisen, dass wir es mit einer wachsenden Interaktion zwischen Mensch und Maschine zu tun haben. Im Vergleich zu früheren technologiebasierten Wandelepochen läuft das in viel höherer Intensität ab und es ergibt sich auch eine viel größere Abhängigkeit vom Menschen. Dies möchte ich an einem Beispiel illustrieren. Wenn Sie die Entwicklung vom Pflug zum Traktor anschauen, dann hat das vor allem mit dem beruflichen Leben der Bäuerin und des Bauers ordentlich was verändert. Heute ist es sowohl das Berufsleben als auch das Privatleben. Wer von Ihnen vielleicht schon mal zuhause am Familientisch oder sonstigen Tisch darüber gestritten hat, wie viel Handypräsenz erlaubt ist, kann davon ein Lied singen. Also, unser Privatleben und unser Berufsleben werden massiv durch diese Interaktion durchdrungen und es ergibt sich auch eine zunehmende Abhängigkeit. Das merken Sie, wenn Sie Menschen sind, die nicht mehr nach dem Weg fragen, sondern versuchen, via einer Maschine den Weg herauszufinden. Damit verbunden ist auch eine laufende Datenabgabe. Also dadurch, dass wir privat und beruflich dauernd mit maschineller Unterstützung unterwegs sind, sind wir auch dauernd dabei, Daten abzugeben. Also eigentlich der Mensch, der ein Produkt hergestellt hat, wie zum Beispiel ein solches Mobiledevice (Mobiledevice: Computer, der klein genug ist, um ihn in der Hand zu halten und zu bedienen), der wird selber eigentlich zum Produkt, dahingehend, weil er dauernd Daten liefert, die höchst interessant – insbesondere für die ökonomische Nutzung – sind. Dann haben wir es mit einem höheren Tempo zu tun, in viel kürzeren Intervallen. Also der technologische Fortschritt im Vergleich zu früheren Fortschrittsphänomenen läuft viel schneller und in viel kürzeren Intervallen ab, das heißt, der Mensch ist dahingehend herausgefordert, dass er zunächst einmal verstehen muss, was da überhaupt passiert, um dann auch irgendwie reagieren zu können, was es vielleicht auch aus rechtlicher oder ethischer Perspektive bedeuten könnte. Es bleibt dem Menschen dafür aber viel, viel weniger Zeit, weil es viel rasanter vor sich geht. Und schließlich stellen wir fest – und das ist etwas, was wir in der Ethik generell feststellen, aber hier in einem ganz besonderen Ausmaß – dass sich Menschen auch an Dinge gewöhnen, die ethisch problematisch sind. Also im Fall von der digitalen Transformation gewöhnt sich der Mensch an Dinge, wo er genau weiß, die sind schlecht für andere Menschen, die sind schlecht für die Umwelt, aber man gewöhnt sich trotzdem dran. Und irgendwann hat man sich so dran gewöhnt, dass man sie gar nicht mehr in Frage stellt. Ich denke hier ist 5G ein schönes Beispiel dafür. Also es gibt, glaube ich, keine vergleichbare, technologiebasierte Entwicklung, die, obwohl noch so zu wenig Wissen darüber vorhanden ist, wie groß die gesundheitlichen Implikationen (Implikation: die Einbeziehung einer Sache in eine andere) sind, einfach einmal probiert wird. Bei Medikamenten zum Beispiel würden wir das nie machen. Medikamente müssen einen sehr sorgfältigen Prüfungsprozess durchlaufen, bevor Menschen diesen ausgesetzt werden, aufgrund der möglichen Gesundheitsrisiken. In diesem Bereich ist man da, um es einmal etwas salopp zu formulieren, deutlich großzügiger und auch ein bisschen naiver. Wobei ich glaube nicht, dass Naivität der wirkliche Beweggrund ist, aber darauf können wir dann sicher noch in der Diskussion zu sprechen kommen.
Soll ich schneller? Passt so. Von der Lautstärke geht’s? Für alle Beteiligten? Wunderbar! Dann bleibt noch darauf hinzuweisen, dass wir in unserer Informationsversorgung und in unserer Wissensbeschaffung sehr stark uns auf Suchmaschinen abstützen, im Unterschied zu früheren Zeiten, wo wir uns auf andere Quellen von Wissen und Information abgestützt haben. Was wir hier beachten müssen ist, dass diese Suchmaschinen aber einem ökologischen Kalkül (Kalkül: formales System von Regeln, mit denen sich aus gegebenen Aussagen weitere Aussagen ableiten lassen) unterliegen. Was meine ich damit? Wenn ich heute in der Früh nach Olten komme und das beste Gipfeli (Hörnchen) suche und das auf einer Suchmaschine eingebe, dann bekomme ich nicht das qualitativ beste Gipfeli, also nicht die Bäckerei, die das qualitativ beste Gipfeli anbietet, sondern ich bekomme die Bäckerei, die am meisten dafür zahlt, zuoberst in der Suchmaschine zu sein. Das ist beim Gipfeli, kann man sagen okay, dann geh ich in die Bäckerei und bekomme jetzt nicht das beste Gipfeli. Das ist okay. Das ist nicht ganz so schlimm wahrscheinlich, vielleicht für meine Laune, aber die hat sich gehalten. Sondern wenn wir es auf einen Bereich projizieren, wo wir z.B. Wissenschaft, Forschung, Bildung, die sehr stark in Abhängigkeit von Suchmaschinen sind, da wir es schon interessanter. Dass wir uns bei unserer Wissens- und Informationsversorgung eigentlich auf Quellen stützen, die nicht unbedingt dem Kriterium der Qualität unterliegen, sondern ökonomische Eigeninteressen verfolgen. Wenn Sie sich an die Geschichte zurückerinnern, dass immer diejenigen die Wissen und Information kontrollieren auch die waren, die an der Macht waren – als katholischer Theologe kann ich davon ein Lied singen. Wieso hat sich die katholische Kirche immer darum bemüht, Wissen zu kontrollieren, Information zu kontrollieren? Weil das mit Macht verbunden ist!
Wenn wir heute fragen, wo die Kontrolle ist über Wissen und Informationen, gibt es eine sehr schnelle aber nicht sehr befriedigende Antwort, weil eben sehr viel jetzt über digitale Prozesse abläuft.
Und da kann ich mir den kleinen Seitenhieb nicht erlauben, wenn heute Kantone feiern, dass Google für sie kostenlos Ihre Bibliotheken digitalisiert und sie das als großes Verhandlungsergebnis präsentieren, kann ich darüber leider nicht schmunzeln, sondern er macht mir Sorgen, weil da nicht verstanden wird was da gerade passiert.
Der nächste Schritt ist, dass die Menschen nicht mehr in kantonale Bibliotheken gehen, weil es viel einfacher ist das online zu genießen. Und dann ist der Schritt schnell, dass man dann die kantonalen Bibliotheken runter spart, bis dann eigentlich die digitale Bibliothek, die dann nicht von einer demokratisch legitimierten Institution geführt wird, mit der entsprechenden Freiheit und auch Unabhängigkeit in Wissen und Forschung, sondern dann von einem privaten Konzern. Ich muss da glaub ich nicht mehr weiter reden, der Gedanke ist angekommen.
Grundsätzlich ist fest zu halten, dass digitale Transformation Chancen und auch Risiken aus ethischer Perspektive umfasst. Wir werden das noch genauer miteinander betrachten. Und um das genauer betrachten zu können, müssen wir aber ein ethisches Prinzip einführen, anhand dessen wir diese Betrachtung vornehmen. Also wie beurteilen wir eigentlich diesen technologiebasierten Fortschritt?
Und ich würde Ihnen da die Menschenwürde aller Menschen als ein solches Prinzip vorschlagen. Jetzt die Menschenwürde aller Menschen ist nicht unbedingt etwas, was unbestritten ist, weil viele sich fragen, was ist das überhaupt. Was kann das schön umschreiben? Menschenwürde ist eigentlich das, was den Menschen zu einem Menschen macht. Das hilft jetzt nicht sehr weiter, weil es ist ein bisschen zirkulär (zirkulär: bedeutet kreisförmig, ringsherum). Weil ich das, was ich versuche zu erklären, mit den gleichen Begriffen erklärt habe. Aber es gibt Ihnen ein bisschen ein Gespür davon, worum es bei der Menschenwürde geht.
Der Philosoph Api hat das sehr schön auf den Punkt gebracht: “Everybody matters!“. Also jeder Mensch zählt. Auch das eine Umschreibung, die es schön auf den Punkt bringt, worum es eigentlich bei der Menschenwürde geht. Ich möchte das ein bisschen im makaberen (makaber: stellt auf scherzhafte, teils unangenehme Weise eine Beziehung zum Tod, zu Krankheiten oder Vergänglichem her) Bild fassen, damit es noch deutlicher vor Augen führt, was die Menschenwürde versucht, deutlich zu machen. Sie versucht eigentlich deutlich zu machen, dass es einen Unterschied gibt zwischen einem materialen Objekt, mit diesem Rednerpult und Menschen. Also wenn ich dieses Rednerpult jetzt an die Wand schmeißen würde, dann wär das ethisch relevant, dann wenn’s kaputt geht. Und dann müssen wir sagen, okay Ressourcenverschleiß, aber es wär jetzt niemand aufgeschreckt dadurch, vielleicht irritiert. Wenn ich jetzt einen Menschen … und den Rest sage ich jetzt auch nicht, weil es brutal ist, aber wenn ich das Gleiche tun würde mit einem Menschen, dann wäre deutlich, dass da was anderes passiert aus ethischer Perspektive, dass hier eine andere ethische Relevanz vorliegt. Und das versucht eigentlich die Menschenwürde deutlich zu machen, dass eben Menschen Träger und Trägerinnen von Würde sind. Würde ist auch ein anderer Begriff als Wert. Wir messen einem Gegenstand einen Wert zu. Ich kann sagen, diese Maus kostet hundert Franken. Und da spreche ich einen Wert zu, während wir dem Menschen eben keinen Wert zusprechen. Das ist zum Beispiel in der 5G-Diskussion nicht ganz unrelevant. Weil wir ja nicht sagen können, ja gut wenn es nur eine kleine Gruppe von Menschen betrifft, die sich da in ihrer Lebensqualität eingeschränkt erlebt und darunter leidet unter den Strahlen zum Beispiel. Dann können wir nicht einfach sagen, es ist nur eine kleine Gruppe von Menschen, das können wir vernachlässigen. Weil auch diese Menschen selbstverständlich Träger und Trägerinnen von Menschenwürde sind. Also die Menschenwürde als Prinzip schützt uns vor jeglicher Quantifizierung, dass wir sagen, der Mensch hat mehr Wert als ein Anderer oder 100 Menschen haben mehr Wert als nur ein Mensch. Nun, Menschenwürde aller Menschen sozusagen, also zu sagen, dass alle Menschen Träger und Trägerinnen von einer solchen Würde sind, bedarf einer großen Begründung, weil eine hohe Begründungslast besteht, wenn ich so eine universelle (universell: bezeichnet räumliche und zeitliche Unveränderlichkeit und Generalisierbarkeit) Aussage mache. Wie kann das geschehen? Ich würde vorschlagen, das Prinzip der Verletzbarkeit. Das ist jetzt der komplexeste Teil meiner Ausführung. Also wenn wir jetzt eine Wanderung gemeinsam machen würden, dann wäre das jetzt der Steilhang und nachher kommt dann ein gemütlicher Alpspaziergang. Also kurz nochmal tief einatmen für die Steilwand. Ich versuche, die Menschenwürde aller Menschen mit dem Prinzip der Verletzbarkeit zu begründen. Das ist ein 400-Seiten-Buch in drei Minuten zusammen gefasst.
Worum geht’s bei dem Prinzip der Verletzbarkeit? Es geht um Folgendes. Menschen erleben sich als verletzbar. Ich nehme mich heute als gesund war, weiß um die Möglichkeit, dass ich morgen krank sein könnte. Das ist eine mögliche Verletzbarkeit. Ich möchte Sie aber einladen dazu, Verletzbarkeit nicht nur in einem medizinischen physischen Sinn zu denken. Ich kann auch dahingehend verletzbar sein, dass ich heute politisch mitbestimmen darf in der Schweiz, aber morgen zum Beispiel eine Bundesrätin oder ein Bundesrat auf die Idee kommen könnte: Ich mach’s morgen allein. Also eine Diktatur eingeführt werden würde. Dann wären wir auch in dieser Hinsicht der politischen Mitbestimmungsrechte verletzbar. Jetzt keine Sorge, das halte ich nicht für ein wahrscheinliches Szenario. Aber es ging mir nur darum, das zu veranschaulichen. Ich würde Sie einladen dazu, Verletzbarkeit so weit und breit wie nur möglich zu denken. Also Menschen erleben ihre eigene Verletzbarkeit. Und im Zuge dieser Wahrnehmung der eigenen Verletzbarkeit nehmen sie die Erste-Person-Perspektive und ein Selbstverhältnis wahr. Was ist damit gemeint?
Die Erste-Person-Perspektive bringt zum Ausdruck, dass jeder Mensch ihr, beziehungsweise sein Leben, so erlebt wie kein anderer Mensch. Ich erlebe jetzt meinen heutigen Tag, den erlebe ich als Subjekt meines Lebens und Sie können von außen zwar sagen: „Ok, er redet jetzt gerade, er strengt sich jetzt da an“, aber Sie können nicht mein Leben leben. Wie auch ich nicht Ihr Leben leben kann. Jeder Mensch lebt ihr bzw. sein Leben selbst, das bringt die Erste-Person-Perspektive zum Ausdruck.
Und das Selbstverhältnis meint, dass ich mich zu meinem Leben in Bezug setzten kann. Also ich kann mein Leben selbst betrachten und mir dazu Fragen stellen. Jetzt merk ich aber, dass auch die Erste-Person-Perspektive und das Selbstverhältnis verletzbar sind. Auf den Punkt gebracht, wenn wir sterben ist es vorbei mit der Ersten-Person-Perspektive und dem Selbstverhältnis zum Beispiel. Also auch hier besteht eine entsprechende Verletzbarkeit. Und dann nehmen wir wahr, dass das nicht ein Peter-Kirchschläger-Problem ist, die Verletzbarkeit, sondern, dass alle Menschen verletzbar sind. Und das führt dazu, dass wir eigentlich feststellen, dass auch alle Menschen eine Erste-Person-Perspektive und ein Selbstverhältnis haben und, dass eigentlich die Bedingung der Möglichkeit eines Lebens als Mensch darstellt. Also wenn wir uns überlegen, was alle Menschen teilen, dann wäre mein Vorschlag als Antwort, diese Erste-Person-Perspektive und dieses Selbstverhältnis. Und jetzt noch der letzte Satz dazu, das letzte Stück der Steilwand. Wenn wir merken, dass wir selber alle verletzbar sind, dann ist es nicht nur eine solidarische Entscheidung, sondern eine kluge, rationale, im Sinne einer Eigeninteressenverfolgung sich ergebende Entscheidung, allen Menschen Menschenwürde zuzusprechen.
Weil ich nie weiß, wann transferiert sich meine Verletzbarkeit in eine konkrete Verletzung. Also wann werde ich krank? Wie schlimm ist es? Ist es nur eine kleine Grippe oder ist es eine Tumorerkrankung? Und ich weiß nie, ob es geschieht. Also aufgrund dieser Ungewissheit ist es für mich die klügste und rationalste Entscheidung zu sagen: Alle Menschen sollen doch mit Menschenwürde versehen werden, damit sie dahingegen auch einen entsprechenden Schutz erfahren.
Das zweite Prinzip, das ich herbei ziehen möchte für unsere ethische Betrachtung der digitalen Transformation, ist das Verantwortungsprinzip. Bei Verantwortung geht es darum, Verantwortungsrelationen zu identifizieren. Zum Bespiel bin ich heute verantwortlich für dieses Referat. Also ich bin verantwortlich Herrn Jakob gegenüber aber auch Ihnen gegenüber, weil Sie mir zuhören. Also hier besteht bereits eine Verantwortungsrelation und die ist genau zu identifizieren. Also wenn z.B. 5G eingeführt wird, stellt sich die Frage, wer ist dafür verantwortlich? Wem gegenüber? Das ermöglicht uns das Verantwortungsprinzip. Und dann geht es auch darum, die Verantwortungssphäre zu identifizieren. Also zu sagen, für welchen Bereich bin ich verantwortlich, bin ich lokal verantwortlich, national, global. Auch das gilt es zu klären. Und dann ist zu beachten, dass zu Macht und Einfluss immer eine entsprechende Verantwortung korrespondiert. Also wenn ich Macht und Einfluss habe, habe ich auch eine Verantwortung. Und je nachdem wenn ich mehr Macht habe, habe ich mehr Verantwortung, wenn ich weniger Macht habe, habe ich weniger Verantwortung. Die Verantwortung einer Bundesrätin, eines Bundesrates ist grösser in politischen Angelegenheiten der Schweiz, als die von mir. Das heißt nicht, dass ich keine Verantwortung habe, aber in Relation zu Macht und Einfluss, den oder die ich hab. Und das kann je nach Kontext unterschiedlich ausfallen, also müssen wir je nach Kontext genau betrachten, wer hat eigentlich in welcher Form wie Macht und Einfluss und dazu korrespondiert dann auch eine unterschiedliche Verantwortung. Jetzt möchte ich das an einem Beispiel, Beispielbereich der digitalen Transformation, mit Ihnen gemeinsam durchspielen, nämlich der Automatisierung von Mobilität. Ich möchte mal zunächst darauf hinweisen, dass ich ganz bewusst von automatisierten Fahrzeugen und nicht von sogenannten autonomen Fahrzeugen spreche, weil der Autonomiebegriff viel mehr umfasst, als nur selbstfahrend zu sein. Autonomie ist eine Kategorie der Philosophie, der Theologie, der Ethik, wo es darum geht, zum Ausdruck zu bringen: „Autos nomos“ – also keine Angst, wir machen jetzt keine Griechischstunde – aber es meint eigentlich nichts anderes, als „autos“ – mein Selbst und „nomos“ – Gesetz, also dass man sich selbst Gesetze geben kann. Und zwar in moralischer Hinsicht, dass wir Menschen fähig sind, uns eigene, selber eigens ethische Regeln aufzustellen, die zu erkennen und die auch als verbindlich zu erachten. Wenn wir das bei Fahrzeugen aussagen würden, müssen wir feststellen, dass das nicht wirklich zutreffend ist, weil was sie können, ist zwar selber fahren, aber sie können sich nicht selber ethische Regeln aufstellen. Also wenn mich z.B. heute Vormittag ein selbstfahrendes Fahrzeug vom Bahnhof hierher gebracht hätte, dann kann ich diesem Fahrzeug selbstverständlich die Regel mitgeben, du sollt keine Menschen überfahren. Ich kann aber gleichzeitig, könnt ich diesem Fahrzeug auch Regeln geben, bitte bring mich von A nach B, so schnell wie möglich, koste es was es wolle. Das Fahrzeug würde diese Regel genau gleich befolgen wie die erste, ohne den Unterschied zu merken, dass das eine von ethischer Qualität ist, nämlich den Menschen zu schützen, und das andere im Sinne einer Effizienzsteigerungsmaßnahme, auch zu ethischen Problemen führen kann. Wenn ich nämlich möglichst schnell von A nach B fahre, kann es auch sein, dass ich Menschen überfahre. Also worauf ich hinaus möchte, ein selbstfahrendes Fahrzeug kann sehr wohl Regeln befolgen, aber es kann nicht einsehen, was der Unterschied ist zwischen einer ethischen Regel und einer nicht ethischen Regel. Weil Automatisierung schlussendlich nichts anderes ist, als auf einen bestimmten Zweck hin arbeiten, diesen Zweck erfüllen. Und wenn dieser Zweck dann halt heißt, den Passagier von A nach B möglichst schnell zu bringen, dann hat das halt entsprechende Implikationen. Ich würde also argumentieren wollen, dass Autonomie als moralische Kategorie allein dem Menschen vorbehalten ist und zwar, das werden wir dann gleich in Folge ausführen, das hat die folgende Konsequenz, dass ich sehr wohl selbstfahrenden Fahrzeugen Regeln und Prinzipien mitgeben, unbedingt, sollten wir auch tun, aber wir sollten uns bewusst sein, dass das durch programmieren, durch Prägung durch den Menschen geschieht und nicht die Fahrzeuge das selber erkennen können und deswegen würde ich auch sagen, dass Begriffe wie z.B. auch moralische Technologie, ein unzutreffender Begriff ist. Jetzt habe ich sehr viel behauptet, jetzt müssen wir das noch begründen. Das machen wir jetzt gleich in der Folge. Wie lässt sich das begründen? Wie lässt sich begründen, dass eben Maschinen keine, ich mach jetzt ein Beispiel von Fahrzeugen, aber Sie können das auch auf anderer Systeme - Maschinen, Roboter, künstliche Intelligenz (Künstliche Intelligenz: Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen beschäftigt) – übertragen, wieso würde ich von denen aussagen, dass sie keine Moralfähigkeit, keine Autonomie kennen. Aus den folgenden Gründen; ich würde zunächst mal argumentieren wollen, das Gewissen, das was für den Menschen eine ziemlich wichtige Rolle spielt, im Zuge von ethischer Beurteilung, im Bezug im Kontext von Moral von Maschinen nicht ausgesagt werden kann. Weil Maschinen die Potentiale fehlen, die im Gewissen zusammenfließen, nämlich des Sollens, der Verpflichtung und Verantwortung, der Existenz. Eine Maschine kann nicht auf ihr Leben zurückschauen oder das miteinbeziehen – und das fließt beim menschlichen Gewissen zusammen. Das ist nicht mein stärkstes Argument, weil das Gewissen als Größe, obwohl, ich sag’s mal für mich, ich hab schon ein schlechtes Gewissen erlebt, das möchte ich jetzt Ihnen nicht unterstellen, aber ich hab das schon erlebt, wenn ich etwas Falsches getan habe, das manifestiert sich sehr deutlich. Es ist aber deswegen nicht mein stärkstes Argument, weil es durchaus von neurowissenschaftlicher (Neurowissenschaft: naturwissenschaftliche Forschungsbereiche zu Aufbau und Funktionsweise von Nervensystemen) Seite in Frage gestellt wird, ob es überhaupt so etwas gibt, wie ein Gewissen. Weil es doch nichts anderes ist als biochemische Prozesse. Da gibt es natürliche Argumente dagegen. Ein Hauptargument wäre, dass interessanterweise der Mensch nicht immer nur das tut, was ihn interessiert, was seine Präferenz ist, was sein Bedürfnis ist, was seine Lust ist, sondern der Mensch auch oftmals das tut, was er eigentlich nicht will, aber es doch tut, weil es eben gesollt ist. Weil es etwas ist, was von ihm als Pflicht, was von ihm als Verantwortung erwartet wird. Aber nur ganz kurz, Aussage – das ist das erste Argument, es ist nicht das stärkste.
Das stärkste Argument ist die Freiheit und damit verbunden die Verantwortung. Ich würde argumentieren wollen, dass Maschinen nicht frei sind und deswegen keine Verantwortungssubjektivität wahrnehmen können. Was ist mit Verantwortungssubjektivität gemeint?
Das bedeutet, dass ich Träger und Trägerin von Verantwortung sein kann. Ich kann aber Träger und Trägerin von Verantwortung nur sein, wenn ich frei bin. Jetzt stellt sich die Frage, können Maschinen frei sein? Ich würde argumentieren, dass Freiheit den Maschinen nicht angesagt werden kann. Wieso? Weil – bildlich gesprochen – in letzter Konsequenz immer ein Mensch die erste Zeile einer Programmierung, die erste Zeile eines Codes (Codes: System von Regeln zur Umwandlung von Informationen), den ersten Schritt einer Entwicklung macht. Das ist immer ein Mensch. Menschen prägen Maschi nen. Menschen prägen Maschinen auch in Bezug darauf, welche Regeln Maschinen zu befolgen haben. Und wenn jetzt aber keine Freiheit und Verantwortung ausgesagt werden kann, kommt jetzt noch als nächstes Argument hinzu, Maschinen können auch nicht moralfähig gedacht werden, weil sie eben diesen Moment der Selbstgesetzgebung, das ich vorher ausgeführt habe, nicht kennen. Also Maschinen können nicht sich selber ethische Regeln geben. Passen Sie auf! Ich sage damit nicht, dass Maschinen nicht sich selbst Regeln setzen können. Natürlich kann sich eine Maschine selber Regeln setzen. Ich komme nochmals zurück auf das selbstfahrende Fahrzeug. Das kann im Sinne einer Effizienzsteigerungsmaßnahme die Regel setzen „ab morgen halte ich nicht mehr beim Fußgängerstreifen, sondern fahre einfach weiter, weil ich dadurch eine Minute einsparen kann“. Das kann eine Regel sein, die sich ein selbstfahrendes Fahrzeug selber setzt. Was wir aber dabei merken ist, das ist definitiv keine ethische Regel. Also nicht eine Regel, die als ethisch legitim (legitim: anerkennungswürdig beziehungsweise rechtmäßig) betrachtet werden würde. Wieso? Weil sie dem Prinzip der Verallgemeinbarkeit nicht gehorcht. Was ist das Prinzip der Verallgemeinbarkeit? Das meint, dass ich mich immer fragen muss, wenn ich eine Regel aufstelle, soll die allgemeines Gesetz werden? Das ist eine Anlehnung an Immanuel Kant (Immanuel Kant: deutscher Philosoph der Aufklärung), also soll das, was ich hier formuliere, überall gelten. Also wenn ich mich frage, soll die Regel – ich fahr bei Fußgängerstreifen, ich halte nicht, sondern fahre weiter – soll das eine allgemeine Regel werden? Dann wird man argumentieren „nein, das ist nicht vorstellbar“, weil zumindest sicher die Menschen, die auf dem Fußgängerstreifen sind, dagegen wären und hoffentlich auch ein paar andere, um sie zu schützen. Wenn Menschen eben als Selbstgesetzgebende betrachtet werden, dann wird deutlich, dass sie deswegen auch nicht instrumentalisiert werden. Also Immanuel Kant würde argumentieren, weil Menschen eben solche Gesetzgebung leisten können, dürfen sie auch nicht instrumentalisiert werden. Ich komme nochmals zurück auf das absurde Beispiel des „ ich werfe das Rednerpult an die Wand und ich werfe einen Menschen an die Wand“. Und der qualitative Unterschied, da kommt genau das zum Ausdruck, dass Menschen eben nicht instrumentalisiert werden dürfen. Wie es bei Kant genau heißt, all seines vernünftigen Wesens, das keinem Gesetz gehorcht, als dem, das es zugleich selber gibt. Jetzt wichtig, Kant meint damit nicht, dass wir Menschen einfach so nach Lust und Laune uns selber ethische Regeln geben. Sondern bei ethischen Regeln muss ja immer die Bedingung erfüllt sein, dass eben das Prinzip der Verallgemeinbarkeit respektiert wird, nämlich, dass ich mir vorstellen kann, dass es eine allgemeine Regel werden kann. Also würde ich argumentieren, dass die Moralfähigkeit nicht dem Potential von Maschinen entspricht. Also ich würde argumentieren wollen, dass Maschinen nicht moralfähig sind und dazu einladen, dass wir sehr präzise bleiben bei der Beschreibung dessen, was Technologien wirklich können. Das macht einen groben Unterschied aus, ob ich ein selbstfahrendes Fahrzeug einfach selbstfahrend verstehe, also sich selber sich seinen Weg durch den Verkehr bahnt, oder dass ich von diesem selbstfahrenden Fahrzeug aussage, dass es sich selber ethische Regeln setzen kann. Das ist ein wesentlicher Unterschied, deswegen lade ich zur begrifflichen Präzision ein. Das gleiche Fragezeichen würde ich auch setzen, wenn wir Maschinen Intuition zusprechen. Einige von Ihnen haben vielleicht mitbekommen, dass eine Maschine – das sogenannte „Go-Spiel“ (Go-Spiel: strategisches Brettspiel für zwei Spieler) gewonnen hat. Das ist ein Spiel, das in unseren Breitengraden nicht so verbreitet ist, im asiatischen Raum sehr verbreitet ist, höchst komplex, im Unterschied zum Schachspiel nicht nur auf logischer Deduktion (Deduktion: aus allgemeinen Aussagen bestimmte Schlussfolgerungen für den Einzelfall treffen) basierend, sondern auch darauf, dass ich, beim Menschen zumindest, eben intuitiv spiele. Also es gibt eine unsichere Informationslage und da muss ich wie aus dem Gefühl heraus, also aufgrund von Erfahrungswerten dann, als menschlicher Spieler und Spielerin Entscheidungen treffen. Weil jetzt Maschinen Menschen auch in diesem Spiel geschlagen haben, sprechen gewisse Experten und Expertinnen im Forschungsdiskurs (Diskurs: „erörternder Vortrag“ oder „hin und her gehendes Gespräch“) von Intuition. Also sie sagen, diese Maschinen seien mit Intuition begabt. Und da wäre ich vorsichtig, weil die machen eigentlich nichts anderes, als Wahrscheinlichkeitsrechnungen in kürzester Zeit aufgrund von großen Datenmengen. Das ist eigentlich das, was passiert: Unsichere Informationslage, dann berechne ich Wahrscheinlichkeit. Das Gleiche gilt für die Feststellung, dass mittlerweile Maschinen Menschen im Pokerspiel schlagen. Da von „Pokerface“ zu reden finde ich auch höchst problematisch, weil auch hier passiert eigentlich nichts anderes, als programmierte Wahrscheinlichkeitsberechnungen. Was aus ethischer Perspektive aufgrund dieser Ausführungen auszusagen ist, dass wir im Rahmen der Automatisierung von Mobilität große ethische Chancen auch dahingehend erkennen können, nämlich, dass wir mit weniger Unfalltoten rechnen. Also Maschinen fahren nicht betrunken, sie fahren nicht verärgert, sie fahren auch nicht testosterongesteuert, wie auch immer. Wir können auch feststellen, dass die Automatisierung von Mobilität zu einer massiven Reduktion von Fahrzeugen führt. Wenn wir selber noch ein Auto besitzen, dann steht das 90 – 95 % der Zeit auf einem Parkplatz oder in einer Garage. Das kann man, glaube ich, effizienter lösen. Auch aus ökologischer Perspektive sehr interessant. Dass wir also davon ausgehen, dass noch 10 % oder weniger als 10 % der heutigen Anzahl von Fahrzeugen notwendig sind, die dann auch noch viel einfacher ausgerüstet sind, weil man nicht mehr Fahrzeuge auf 300 km/h ausstattet, sondern auf eine viel tiefere Geschwindigkeit, die dann im Durchschnitt gefahren wird. Man geht von einem Anstieg der Fahrtenkilometer aus und eben, dass die Fahrzeuge leichter sind, weil die damit verbundenen Sicherheitskonzepte deutlich reduziert werden können. Und damit verbunden eben auch von einer Emissionsreduktion, die ebenfalls ethisch positiv ist natürlich aus ökologischer Perspektive.
Ich möchte im nächsten Schritt auf die Interaktion zwischen Mensch und Maschine eingehen. Und hier können wir feststellen, dass Maschinen aufgrund dieser intensiven Interaktion dazu auch befähigt sind, Menschen auch zu verändern. Wir stellen zum Beispiel bei Kindern und Jugendlichen fest, dass es durchaus attraktiver ist, eine Beziehung via Nachricht zu beenden, als in einem Vieraugengespräch. Das lässt uns schmunzeln, aber ist gleichzeitig auch alarmierend dahingehend, wie es um unsere zwischenmenschlichen Fähigkeiten eigentlich steht.
Die Thematik der wachsenden Abhängigkeit von Maschinen, ich möchte es an einem Beispiel deutlich machen, auf das ich dann später wieder nochmals zurückkommen werde. Und wenn ich später sage – keine Sorge – ich habe den Zeitplan immer noch im Griff. Nicht, dass Ihr denkt, das mache ich dann am Nachmittag. Wenn Sie sich vorstellen: Assistenzsysteme für Menschen mit einer Behinderung zum Beispiel. Faszinierend dahingehend aus ethischer Perspektive und höchst positiv, dass sie dem Menschen ein selbstbestimmtes Leben ermöglichen. Schwierigkeit: Menschen werden davon abhängig. Also, wenn sie sich jemals auf so ein Assistenzsystem abgestützt haben in der Meisterung Ihres Lebensalltags, dann werden sie diese Maschinen nicht mehr aufgeben wollen. Das heißt, das kann, wenn ich jetzt der Anbieter von solchen Maschinen bin, für die Preisgestaltung höchst interessant sein. Also, was wir ja zum Beispiel bei Medikamentenpreisen durchaus beobachten können, dass Medikamente eingeführt werden, Menschen die dann nützen, von der Wirkung profitieren und sobald eine gewisse Abhängigkeit da ist, dann die Preise hochgefahren werden, weil man genau weiß, die Menschen werden auch diese Preise weiterzahlen, weil eine entsprechende Abhängigkeit im Blick ist. Da stelle ich nicht grundsätzlich das marktwirtschaftliche Muster dahinter in Frage, sondern möchte nur darauf hinweisen, dass wir uns diesbezüglich Gedanken machen müssen, weil hier eine solche Abhängigkeit entstehen kann. Und eben die Fähigkeit zur zwischenmenschlichen Interaktion, etwas, das wir im Blick haben müssen. Die Frage, ob wir nicht zu einer Robotisierung des Menschenbildes hintendieren, weil wir uns kritisch fragen müssen, ob wir nicht dadurch, dass wir versuchen, alles zu programmieren, alles in die Sprache der Mathematik zu übersetzen, aus dem Blick verlieren, dass es auch Dinge gibt, die sich nicht in die Sprache der Mathematik, nicht in die Sprache von Programmierung übersetzen lässt. Und schließlich der Drang, das Streben, den Menschen zu perfektionieren. Das ethisch Problematische ganz kurz daran ist im Kern, dass dann Menschen eigentlich als Mangelwesen als Ausgangspunkt genommen werden. Also Menschen, wie wir heute sind, sind einmal in erster Linie durch ihre Mängel bestimmt und die gilt es zu beheben. Und das ist nicht unbedingt eine sehr schöne Art und Weise, von Menschen zu denken. Um es mal hierbei zu belassen, da gäbe es noch mehr zu sagen. Dann ist der Datenschutz massiv unter Druck. Also wir machen heute Dinge, die vor diesem Standard, den wir uns jahrhundertelang erkämpft haben, Menschenrechtsschutz von Daten, Menschenrechtsschutz von Privatsphäre, die eigentlich überhaupt nicht damit vereinbar sind. Die Privatsphäre ist deswegen auch so relevant, weil sie freiheitsrelevant ist. Wir wissen, dass Menschen sich anders verhalten, wenn sie überwacht werden. Und das ist verändernd, wenn sie dauernd sich nicht so frei verhalten können. Und hier besteht ganz grundsätzlich die Gefahr, dass wir mühsam erkämpfte Rechte aufgeben. Jahrhundertelang mühsam erkämpfte Rechte. Hier gilt es deutlich dagegen zu halten, wieder dafür zu sorgen, dass diese mühsam erkämpften Rechte entsprechend weiter realisiert und durchgesetzt werden. Und dafür müssen wir uns auch über Ziele und Grenzen des technologischen Fortschritts austauschen. Wir müssen aushandeln, wie weit technologischer Fortschritt und in welche Bereiche dieser auch gehen darf. Was sein soll, und was nicht sein soll. Auf den Punkt gebracht: Nicht alles technisch Machbare soll auch gemacht werden. Es gibt Dinge, die technisch machbar sind, die aber Menschen schaden oder der Umwelt schaden und deswegen aus ethischer Perspektive zu hinterfragen sind.
Ich mach grad eine schöne Brücke zum sechsten Abschnitt, nämlich der globalen Ungleichzeitigkeit. Was ist damit gemeint? Damit ist gemeint, dass wir feststellen, dass aus einer globalen Perspektive – und Sie merken, hier bin ich beim Stichwort „Verantwortungssphäre“, also denke ich nur lokal, denke ich national oder denke ich global? Ich würde argumentieren, dass wir mit dem Prinzip der Menschenwürde, wir automatisch auch global denken müssen. Wir alle Menschen als Trägerinnen und Träger von Menschenwürde betrachten und nicht nur Schweizerin und Schweizer. Oder nicht nur Menschen, die in Europa leben, sondern eben alle Menschen. Dann hat das eine Implikation, hat das eine Folge auf die Verantwortung, dass wir eben gegenüber von allen Menschen eine Verantwortung haben. Und da stellen wir fest, dass die digitale Transformation weltweit unterschiedlich schnell und intensiv abläuft. Zudem stellen wir fest, dass es auch globale Asymmetrien gibt in den digitalen Transformationsprozessen. Die möchte ich daran festmachen, dass nur wenige Menschen darüber entscheiden, wie digitale Transformation vor sich geht. Digitale Transformation ist ja nicht einfach etwas, was über die Menschheit kommt, ohne dass die Menschheit irgendeinen Einfluss darauf hätte. Digitale Transformation gestalten wir. Wir Menschen gestalten digitale Transformation. Und können entscheiden, dass es so oder so verlaufen soll. Es ist nicht etwas, das wir einfach als gegeben akzeptieren müssen, sondern wir haben ja eine Gestaltungsverantwortung. Und hier stellen wir fest, dass eigentlich nur wenige Menschen, die Macht und Einfluss haben, das auch entsprechend einbringen. Also hier besteht eine Asymmetrie. Die besteht auch in Bezug auf politische Mitsprache, die besteht aber auch in Bezug darauf, wer den Nutzen genießen darf, und wer darunter leiden muss.
Also wir blenden konsequent und interessanterweise auch im ethischen Diskurs zu dieser Thematik, konsequent aus, dass Menschen für diese Technologieprodukte, für den technologischen Fortschritt, in der Schürfung von Rohstoffen, massiv in ihrer Menschenwürde, in ihren Menschenrechten verletzt werden, dauernd, täglich, Kinderarbeit in den Minen. Und das lassen wir einfach so zu. Und wir lassen auch zu, dass Menschen in ihren Menschenrechten, in ihrer Menschenwürde, in den Fabriken, wo diese Produkte dann zusammengesetzt werden, auch in ihren Menschenrechten, in ihrer Menschenwürde verletzt werden. Und hier besteht dringender Handlungsbedarf.
Im Zuge der digitalen Transformation ist aus ethischer Perspektive auch relevant - und Sie merken, wir sind bereits beim Abschnitt sieben, also Sie können alle entspannt sein, wir kommen zeitlich perfekt hin - was wir bei digitaler Transformation auch feststellen, ist, dass wenn Maschinen mehr und mehr Tätigkeiten übernehmen, sich die Frage stellt: Was passiert eigentlich mit den menschlichen Arbeitskräften? Also was passiert mit bezahlten, beruflichen Aufgaben? Wenn Sie schon mal in einem Lebensmittelgeschäft gesehen haben, dass Sie die Option haben, eine automatisierte Kasse zu verwenden oder zu einer menschlichen Kassiererin/Kassierer zu gehen: Das ist jetzt genau die Thematik. Also wo wir tagtäglich eigentlich erleben, dass automatisierte Kassen natürlich dazu führen werden, dass Menschen hier nicht mehr der Tätigkeit als Kassiererin/Kassierer nachgehen können. Ist keine Nobelpreisentdeckung, dass das so sein wird, weil es ökonomisch interessant ist. Also ich kann hier eine Effizienzsteigerung als Unternehmer hinkriegen, weil automatisierte Kassen mittlerweile günstiger sind, als eine Kassiererin, ein Kassierer auf der Lohnliste. Nun, jetzt würde ich argumentieren wollen, dass eben wir insgesamt von einer massiven Reduktion der bezahlten beruflichen Aufgaben ausgehen müssen. Also, dass wir 20 – 50 %, (da gehen die Studien auseinander, 20 % ist eben eher defensiv gerechnet, 50 % offensiv), 20 – 50 % des Arbeitsmarktes für den Menschen wegfallen wird in den nächsten 15 – 20 Jahren. Also 15 – 20 Jahre ist ungefähr die Zeitspanne, wenn heute ein Kind in die schulische Laufbahn einsteigt, die Kinder werden, eine Hälfte davon oder je nach dem eben 20 %, werden niemals in eine berufliche Aufgabe einsteigen. Niemals. Nicht mal verlieren und dann wieder. Nein! Das nie erleben, wie das ist, einer bezahlten beruflichen Tätigkeit nachzugehen. Wieso will ich argumentieren, dass das so ist? Weil man kann ja natürlich dagegen halten: Ja, in der Menschheitsgeschichte haben Menschen immer Angst gehabt, dass aufgrund von technologiebasiertem Fortschritt Menschen nicht mehr gebraucht werden und es wurden dann immer noch viel mehr gebraucht. Also wir wissen, dass z. B. in Diskursen, um die Industrialisierung herum auch solche Argumente aufgetaucht sind, dass Menschen gesagt haben, es werde keine Menschen mehr brauchen. Was dann faktisch eingetreten ist: Es hatte noch mehr menschliche Arbeitskräfte gebraucht. Was ist aber der wesentliche Unterschied heute im Verhältnis zu früheren technologiebasierten Wandelepochen? Zum einen ist es der Fokus, das Ziel. Es geht um Ersatz, es geht nicht um Erleichterung. Ich komme nochmals zum Pflug/Traktor zurück. Der Schritt vom Pflug zum Traktor, da ging es um Erleichterung. Die Bauern, die Bäuerin/den Bauern hat es weiterhin gebraucht. Aber die Tätigkeit wurde deutlich leichter gemacht. Bei der automatisierten Kasse geht es nicht darum, der Kassiererin/dem Kassierer ihren Arbeitsalltag zu erleichtern, denen die Möglichkeit zu geben, mal eine Zeitung zu lesen oder ausführlicher mit dem Kunden zu reden. Nein, es geht darum, sie von der Lohnliste zu streichen - Ersatz.
Zweites Argument: Es sind selbstlernende Maschinen, großmehrheitlich oder im Potential. Das heißt, es braucht wenig bis keinen menschlichen Input, dass diese Maschinen laufen, dass sie sich weiterentwickeln können. Die lernen das selber.
Wir sind drittens, und das ist wahrscheinlich der wichtigste Unterschied, es sind alle beruflichen Aufgaben betroffen. Denken Sie an Roboterrichter, an Roboteranwältinnen/Anwälte, denken Sie an chirurgische Eingriffe, die robotisiert ablaufen. Es geht nicht wie bei früheren technologiebasierten Wandelepochen und ihrer Wirkung auf bezahlte berufliche Tätigkeiten, um Aufgaben, die wenig bis keine berufliche Qualifikation voraussetzen, sondern es sind alle beruflichen Aufgaben von digitaler Transformation betroffen.
Schließlich stellt man eine wechselseitige Verstärkung – das ist das vierte Argument zwischen Digitalisierung und Globalisierung – fest. Was ist damit gemeint? Digitalisierung wird durch Globalisierung befeuert, weil wir nicht nur auf schweizer Daten, sondern auf weltweite Daten zugreifen können. Und umgekehrt ermöglicht Digitalisierung Fortschritte im Bereich der Globalisierung, weil ich kostenlos z.B. mit dem anderen Ende der Welt telefonieren kann in höchster Qualität. Also das befeuert natürlich Globalisierung.
Fünftes Argument: Das Tempo der Veränderung. So rasant ging es noch nie.
Und schließlich Sechstens: Dass eben, das habe ich bereits erläutert, das Arbeits- und das Privatleben durchdrungen wird von digitaler Transformation. Der Wechsel vom Pflug zum Traktor hatte keinen Einfluss auf das Schlafzimmer der Bäuerinnen und Bauern. Digitale Transformation kann durchaus, also ich möchte ja niemandem zu nahe treten, aber kann durchaus in unserem Privatbereich massive Veränderungen herbeiführen. Jetzt die Frage: Wenn es zu solcher Reduktion von bezahlten beruflichen Aufgaben kommt, soll man das bedingungslose Grundeinkommen einführen? Was ist das bedingungslose Grundeinkommen? Es geht im Kern, da gibt es ganz verschiedene Schattierungen, Facetten, Nuancen, vor allem im Kern einer dieser verschiedenen Ansätze, die unter das bedingungslose Grundeinkommen fallen: Zum einen „Existenzsicherung“. Es geht um Existenzsicherung, es geht um Ermöglichung von gesellschaftlicher Teilhabe, es geht um eine einkommens- und vermögensunabhängige Transferzahlung. Also es wird nicht überprüft, wie viel Sie verdienen, oder was Sie besitzen, und es wird vollzogen ohne Bedürftigkeits- und Vermögensprüfung. Ich würde vorschlagen, hier noch weiter zu denken und eine leichte Anpassung vorzunehmen. Und zwar deswegen, weil der bezahlte berufliche Arbeitsplatz mehr Funktionen erfüllt, als nur den finanziellen, die finanzielle Funktion. Sinnstiftend, sie ist identitätsstiftend. Ein Beispiel: Wenn Sie bei einem Apéro sind und niemanden kennen und jemand fragt: „Was machen Sie? Die wenigsten von uns sagen: „Ich spiele gerne Fussball.“, oder „Ich gehe gerne Skifahren“. Sondern wir sagen das, was wir beruflich tun, oder was wir getan haben, oder in welcher Ausbildung oder Weiterbildung wir uns befinden. Das definiert uns sehr stark, unser Selbstverständnis. Das ist auch eine Funktion der bezahlten beruflichen Tätigkeit, die ein bedingungsloses Grundeinkommen nicht abdecken kann. Wir lernen auch am bezahlten beruflichen Arbeitsplatz - ganz kurz - wir lernen am bezahlten beruflichen Arbeitsplatz auch, mit Menschen umzugehen, die wir uns nicht selber auswählen. Also im privaten Bereich haben wir da größere Einflussmöglichkeiten. Ich sage nicht, dass die absolut sind, aber immerhin haben wir mehr Zugriff. In der bezahlten beruflichen Tätigkeit haben wir das nicht. Da müssen wir uns arrangieren, da müssen wir lernen, mit anderen Menschen umzugehen, die wir uns nicht selber aussuchen. Und das führt dann eigentlich zu einer gesellschaftlichen Integration. Also wir lernen so auch, in einer Gesellschaft zusammen zu wachsen. Auch das beachtet das bedingungslose Grundeinkommen nicht. Deswegen würde ich vorschlagen, aus einer Perspektive der Menschen wieder eine leichte Anpassung. Das geht schnell, weil es nicht sehr komplex ist. Das „Society-, Entrepreneurship-, Research-Time-Model“ (Society-, Entrepreneurship-, Research-Time-Model: Modell von Kirchschläger für die Zeit nach dem „Zeitalter der Erwerbsarbeit“, welches die Idee eines bedingungslosen Grundeinkommens mit dem Modell des Zivildienstes verbindet), das ich vorschlagen würde. Das einzige, was nicht so, nicht ganz so komplex ist, ist der Name. Aber das ist mir nicht besser gelungen. Die Abkürzung dafür „SERT“, das geht. SERT meint, dass mit dem Blick, dass eben Menschenrechte nicht nur das Überleben von Menschen schützen, sondern eben ihre Menschenwürde vor allem auch in den Blick zu nehmen ist. Und was wir uns deswegen überlegen müssen ist: Was müssen wir tun, dass eben auch der Menschenwürde aller Menschen Rechnung getragen wird, und das kommt beim bedingungslosen Grundeinkommen zu kurz, wenn es nur darum geht, Existenz zu sichern. Ich würde deswegen sagen, es muss ein höheres Grundeinkommen sein, um ein menschenwürdiges Dasein zu ermöglichen. Also auf den Punkt gebracht: Nicht einfach ein „vor sich hinvegetieren“, sondern ein menschenwürdiges Leben muss allen Menschen ermöglicht werden. Und damit verbunden würde ich aber sagen, ist nicht bedingungslos, sondern jeder Mensch soll einen Beitrag leisten zu gesamtgesellschaftlichen Aufgaben. Das mache ich deswegen, weil es so eigentlich Menschen erleben können, wie es ist, einen Beitrag zur Gesellschaft zu leisten. Mal eine bezahlte berufliche Tätigkeit zu erleben. Und gleichzeitig will auch das Modell dann so auch Anreiz für Bildung, Forschung und Unternehmertum setzen, weil dann Menschen, die sich in Unternehmertum, Innovation, Forschung, Wissenschaft engagieren, von dieser Seite teilbefreit werden können. Also, zusammengefasst. Das SERT ist kein Ausdruck von Misstrauen gegen die Menschen, sondern versucht eigentlich, die Menschenwürde stärker in den Blick zu nehmen. Auch deutlich zu machen, dass wir Menschen mehr sind, als nur Lebewesen, die überleben wollen. Sondern wir wollen menschenwürdig leben und das SERT versucht, den Menschen ganzheitlicher gerecht zu werden und sowohl Selbstbestimmung, als auch Innovation zu achten. Jetzt werden Sie sich vielleicht fragen: Wer soll das zahlen? Dann kann ich Sie darauf hinweisen, dass ja eigentlich die Kernkonsequenz digitaler Transformation ist, dass die Wertschöpfungskette effizienter und effektiver abläuft. Also, Roboter können sieben Tage 24 Stunden ohne Müdigkeit, ohne Kater, ohne Liebeskummer usw. arbeiten, effizienter und effektiver. Aber wir merken auch, dass immer weniger Menschen eigentlich daran teilnehmen und teilhaben. Teilnehmen meint arbeitend, mitwirkend, teilhabend meint auch davon profitierend finanziell. Also die Ressourcen werden mehr, was wir aber organisieren müssen ist, wie wir sie verteilen. Ich komme zu meinen Schlussbemerkungen, zur Beruhigung von allen und auch als Hinweis: „Jetzt gehen wir dann gleich ins Gespräch miteinander“. Also, dass Sie auch mental sich darauf einstellen können. Ich würde argumentieren wollen, dass Maschinen aus ethischer Sicht Gutes bewirken können. Ich habe die assistierenden Systeme erwähnt, die dem Menschen mit einer Behinderung ein selbstbestimmtes Leben ermöglichen können. Das ist definitiv etwas ethisch Erfreuliches, Positives. Die Ambivalenz, die darin steckt ist aber, dass dieses Mehr an Selbstbestimmung mit dem Mehr an Abhängigkeit erfolgt, und dass auch so Menschen zu Datenlieferantinnen/-lieferanten dauernd werden. Maschinen können aus ethischer Sicht auch Schlechtes verursachen, z.B. Mensch und Umwelt Schaden zufügen, und hier ist insbesondere aus ethischer Perspektive das Komplexe daran die sogenannte „Dual Use“ Problematik. Also Dual Use meint zweifache Nutzungsmöglichkeit. Also ich kann z.B. eine Drohne dafür einsetzen, Menschen in einem Naturkatastrophengebiet mit überlebensnotwendigen Gütern zu versorgen. Das ist sicherlich ethisch positiv. Ich kann aber eine Drohne auch als Killer-Drohne einsetzen, und dann ist es sicherlich ethisch negativ zu betrachten.
Ich würde argumentieren wollen, und das ist meine letzte Folie, dass die Moral-Fähigkeit der Menschen ein
Alleinstellungsmerkmal der Menschen darstellt, dass das etwas ist, das den Menschen auszeichnet und damit verbunden ist es auch eine exklusiv dem Menschen zukommende Verantwortung. Und ich möchte an dieser Stelle noch mal betonen, damit verbunden ist auch eine Gestaltungs-Verantwortung der digitalen Transformation, eine Gestaltungs-Verantwortung des Einsatzes von künstlicher Intelligenz. Aus meiner Sicht geht es darum, jetzt ethische Prinzipien und rechtliche Normen festzulegen für diesen Bereich und auch entsprechende Rahmenbedingungen und Ziele und Grenzen jetzt festzulegen für Maschinen und digitale Transformation. Ich bin da zuversichtlich, und zwar deswegen – das ist mein letzter Gedanke, zumindest im Rahmen des Vortrages – ich bin deswegen zuversichtlich, weil die Menschheit schon bewiesen hat, dass sie das kann. Sie kann technisch Machbares nicht tun – auch global. Ich gebe da noch eine Analogie, ein Beispiel, das hinkt immer ein bisschen, aber es hat doch etwas Illustratives. Denken sie an die Nukleartechnologie: Der Mensch hat nuklear technologisch geforscht, er hat die Atombombe gebaut, er hat sie abgeworfen, und dann hat er sich darauf geeinigt, international eine Atomenergiebehörde zu schaffen, die überwacht, wie Nukleartechnologie genutzt werden darf und wie nicht. Er hat sich also selbst beschränkt, er ist nicht einfach dem technisch Machbaren blind nachgerannt. Das hat natürlich seine Grenzen, ich bin nicht naiv genug, nicht zu sehen, dass es auch geopolitische Implikationen hat. Ich weiß auch, dass es nicht perfekt funktioniert. Aber es hat zumindest Schlimmeres verhindert. Also der Mensch ist fähig dazu, nicht das technisch Machbare einfach zu tun, sondern sich eben in Interaktion mit Technologie zu überlegen, was soll auch ethisch sein und was soll nicht sein. Ganz herzlichen Dank für ihre Aufmerksamkeit, ich freue mich auf das Gespräch, danke.
Sendungstext
herunterladen
06.06.2020 | www.kla.tv/16539
Ich stehe hier vor einem Gebäude, auf dem immer mehr Mobilfunkantennen montiert werden. Politik und Wirtschaft treiben die digitale Transformation immer weiter voran, obwohl große Teile der Bevölkerung demgegenüber skeptisch sind. Prof. Dr. Peter Kirchschläger von der theologischen Fakultät der Uni Luzern hielt am 15. Februar 2020 einen Vortrag mit dem Titel: „Digitale Transformation aus ethischer Perspektive – Ethische Chancen und Risiken der digitalen Transformation – Ethische Überlegungen zu 5G – von Menschen und Maschinen“. Kirchschläger ist bekannt aus der Arena Sendung vom SRF1 vom 8. März 2019 zum Thema: „Wer hat Angst vor 5G?“. In seinem Vortrag entfaltet er eine spannende grundlegende Auseinandersetzung mit den signifikanten Fakten von Mensch und Maschine, deren Gefahren, Vor- und Nachteilen. Ein Fazit: Softwaregesteuerte Maschinen, z.B. Autos, haben kein Gewissen. Ihre Intelligenz, Moral und Ethik entsprechen bestenfalls denjenigen Menschen, die sie programmiert haben. Es müssten daher Ziele und Grenzen der digitalen Transformation definiert werden. Sehen Sie nun den kompletten Vortrag. Der Vortrag von Prof Dr. Peter Kirchschläger wurde anlässlich der Generalversammlung des Vereins Gigaherz gehalten. Gigaherz durfte am 15. Februar 2020 das 20-jährige Bestehen feiern. Gigaherz will erreichen, dass die Bevölkerung vor den schädlichen Auswirkungen der elektromagnetischen Strahlung geschützt wird und dass bereits Betroffene zu ihrem Recht kommen. Mehr Informationen finden sie unter www.gigaherz.ch Guten Morgen. Auch von meiner Seite herzlichen Glückwunsch zu dem Geburtstag Ihrer Organisation. Es ist mir eine große Ehre und Freude, heute Vormittag bei Ihnen sein zu dürfen, um mit Ihnen gemeinsam über die digitale Transformation aus ethischer Perspektive nachzudenken. Was habe ich mit Ihnen vor? Ich möchte nach ein paar einleitenden Bemerkungen die Menschenwürde aller Menschen als ethischen Referenzpunkt einführen, weil es sich bei einer ethischen Betrachtung immer auch zuerst einmal um die Frage dreht: Woran wird eigentlich gemessen, wie gehe ich bei der ethischen Beurteilung vor, was ist der Maßstab? Und ich möchte Ihnen da die Menschenwürde aller Menschen vorschlagen, dann das Verantwortungsprinzip, um dann beim Bereich der Automatisierung von Mobilität auch an einem Beispiel exemplarisch durchzuführen, wie eine solche ethische Beurteilung erfolgen kann, eben hier beim Bereich der Automatisierung von Mobilität. Dann möchte ich auf die Thematik der Interaktion (Interaktion: wechselseitiges aufeinander Einwirken von Akteuren oder Systemen) zwischen Mensch und Maschine eingehen aus einer ethischen Perspektive, um dann auf globale Ungleichzeitigkeitsphänomene einzugehen, um noch das Thema Superintelligenz zu streifen, und dann mit ein paar Schlussbemerkungen zu schließen. Wenn Sie jetzt Sorge haben, dass wir dann heute um Mitternacht fertig sind, kann ich Sie beruhigen. Ich habe das so vorbereitet, dass wir pünktlich zu einem Schluss kommen, um dann noch genügend Zeit auch für ein gemeinsames Gespräch zu haben. Also würde ich Sie einladen: Schreiben Sie ihre Kommentare, Fragen, Kritik bereits laufend auf, damit wir dann möglichst intensiv miteinander noch in den Austausch kommen können. Gut, legen wir los. Einleitend möchte ich darauf hinweisen, dass wir es mit einer wachsenden Interaktion zwischen Mensch und Maschine zu tun haben. Im Vergleich zu früheren technologiebasierten Wandelepochen läuft das in viel höherer Intensität ab und es ergibt sich auch eine viel größere Abhängigkeit vom Menschen. Dies möchte ich an einem Beispiel illustrieren. Wenn Sie die Entwicklung vom Pflug zum Traktor anschauen, dann hat das vor allem mit dem beruflichen Leben der Bäuerin und des Bauers ordentlich was verändert. Heute ist es sowohl das Berufsleben als auch das Privatleben. Wer von Ihnen vielleicht schon mal zuhause am Familientisch oder sonstigen Tisch darüber gestritten hat, wie viel Handypräsenz erlaubt ist, kann davon ein Lied singen. Also, unser Privatleben und unser Berufsleben werden massiv durch diese Interaktion durchdrungen und es ergibt sich auch eine zunehmende Abhängigkeit. Das merken Sie, wenn Sie Menschen sind, die nicht mehr nach dem Weg fragen, sondern versuchen, via einer Maschine den Weg herauszufinden. Damit verbunden ist auch eine laufende Datenabgabe. Also dadurch, dass wir privat und beruflich dauernd mit maschineller Unterstützung unterwegs sind, sind wir auch dauernd dabei, Daten abzugeben. Also eigentlich der Mensch, der ein Produkt hergestellt hat, wie zum Beispiel ein solches Mobiledevice (Mobiledevice: Computer, der klein genug ist, um ihn in der Hand zu halten und zu bedienen), der wird selber eigentlich zum Produkt, dahingehend, weil er dauernd Daten liefert, die höchst interessant – insbesondere für die ökonomische Nutzung – sind. Dann haben wir es mit einem höheren Tempo zu tun, in viel kürzeren Intervallen. Also der technologische Fortschritt im Vergleich zu früheren Fortschrittsphänomenen läuft viel schneller und in viel kürzeren Intervallen ab, das heißt, der Mensch ist dahingehend herausgefordert, dass er zunächst einmal verstehen muss, was da überhaupt passiert, um dann auch irgendwie reagieren zu können, was es vielleicht auch aus rechtlicher oder ethischer Perspektive bedeuten könnte. Es bleibt dem Menschen dafür aber viel, viel weniger Zeit, weil es viel rasanter vor sich geht. Und schließlich stellen wir fest – und das ist etwas, was wir in der Ethik generell feststellen, aber hier in einem ganz besonderen Ausmaß – dass sich Menschen auch an Dinge gewöhnen, die ethisch problematisch sind. Also im Fall von der digitalen Transformation gewöhnt sich der Mensch an Dinge, wo er genau weiß, die sind schlecht für andere Menschen, die sind schlecht für die Umwelt, aber man gewöhnt sich trotzdem dran. Und irgendwann hat man sich so dran gewöhnt, dass man sie gar nicht mehr in Frage stellt. Ich denke hier ist 5G ein schönes Beispiel dafür. Also es gibt, glaube ich, keine vergleichbare, technologiebasierte Entwicklung, die, obwohl noch so zu wenig Wissen darüber vorhanden ist, wie groß die gesundheitlichen Implikationen (Implikation: die Einbeziehung einer Sache in eine andere) sind, einfach einmal probiert wird. Bei Medikamenten zum Beispiel würden wir das nie machen. Medikamente müssen einen sehr sorgfältigen Prüfungsprozess durchlaufen, bevor Menschen diesen ausgesetzt werden, aufgrund der möglichen Gesundheitsrisiken. In diesem Bereich ist man da, um es einmal etwas salopp zu formulieren, deutlich großzügiger und auch ein bisschen naiver. Wobei ich glaube nicht, dass Naivität der wirkliche Beweggrund ist, aber darauf können wir dann sicher noch in der Diskussion zu sprechen kommen. Soll ich schneller? Passt so. Von der Lautstärke geht’s? Für alle Beteiligten? Wunderbar! Dann bleibt noch darauf hinzuweisen, dass wir in unserer Informationsversorgung und in unserer Wissensbeschaffung sehr stark uns auf Suchmaschinen abstützen, im Unterschied zu früheren Zeiten, wo wir uns auf andere Quellen von Wissen und Information abgestützt haben. Was wir hier beachten müssen ist, dass diese Suchmaschinen aber einem ökologischen Kalkül (Kalkül: formales System von Regeln, mit denen sich aus gegebenen Aussagen weitere Aussagen ableiten lassen) unterliegen. Was meine ich damit? Wenn ich heute in der Früh nach Olten komme und das beste Gipfeli (Hörnchen) suche und das auf einer Suchmaschine eingebe, dann bekomme ich nicht das qualitativ beste Gipfeli, also nicht die Bäckerei, die das qualitativ beste Gipfeli anbietet, sondern ich bekomme die Bäckerei, die am meisten dafür zahlt, zuoberst in der Suchmaschine zu sein. Das ist beim Gipfeli, kann man sagen okay, dann geh ich in die Bäckerei und bekomme jetzt nicht das beste Gipfeli. Das ist okay. Das ist nicht ganz so schlimm wahrscheinlich, vielleicht für meine Laune, aber die hat sich gehalten. Sondern wenn wir es auf einen Bereich projizieren, wo wir z.B. Wissenschaft, Forschung, Bildung, die sehr stark in Abhängigkeit von Suchmaschinen sind, da wir es schon interessanter. Dass wir uns bei unserer Wissens- und Informationsversorgung eigentlich auf Quellen stützen, die nicht unbedingt dem Kriterium der Qualität unterliegen, sondern ökonomische Eigeninteressen verfolgen. Wenn Sie sich an die Geschichte zurückerinnern, dass immer diejenigen die Wissen und Information kontrollieren auch die waren, die an der Macht waren – als katholischer Theologe kann ich davon ein Lied singen. Wieso hat sich die katholische Kirche immer darum bemüht, Wissen zu kontrollieren, Information zu kontrollieren? Weil das mit Macht verbunden ist! Wenn wir heute fragen, wo die Kontrolle ist über Wissen und Informationen, gibt es eine sehr schnelle aber nicht sehr befriedigende Antwort, weil eben sehr viel jetzt über digitale Prozesse abläuft. Und da kann ich mir den kleinen Seitenhieb nicht erlauben, wenn heute Kantone feiern, dass Google für sie kostenlos Ihre Bibliotheken digitalisiert und sie das als großes Verhandlungsergebnis präsentieren, kann ich darüber leider nicht schmunzeln, sondern er macht mir Sorgen, weil da nicht verstanden wird was da gerade passiert. Der nächste Schritt ist, dass die Menschen nicht mehr in kantonale Bibliotheken gehen, weil es viel einfacher ist das online zu genießen. Und dann ist der Schritt schnell, dass man dann die kantonalen Bibliotheken runter spart, bis dann eigentlich die digitale Bibliothek, die dann nicht von einer demokratisch legitimierten Institution geführt wird, mit der entsprechenden Freiheit und auch Unabhängigkeit in Wissen und Forschung, sondern dann von einem privaten Konzern. Ich muss da glaub ich nicht mehr weiter reden, der Gedanke ist angekommen. Grundsätzlich ist fest zu halten, dass digitale Transformation Chancen und auch Risiken aus ethischer Perspektive umfasst. Wir werden das noch genauer miteinander betrachten. Und um das genauer betrachten zu können, müssen wir aber ein ethisches Prinzip einführen, anhand dessen wir diese Betrachtung vornehmen. Also wie beurteilen wir eigentlich diesen technologiebasierten Fortschritt? Und ich würde Ihnen da die Menschenwürde aller Menschen als ein solches Prinzip vorschlagen. Jetzt die Menschenwürde aller Menschen ist nicht unbedingt etwas, was unbestritten ist, weil viele sich fragen, was ist das überhaupt. Was kann das schön umschreiben? Menschenwürde ist eigentlich das, was den Menschen zu einem Menschen macht. Das hilft jetzt nicht sehr weiter, weil es ist ein bisschen zirkulär (zirkulär: bedeutet kreisförmig, ringsherum). Weil ich das, was ich versuche zu erklären, mit den gleichen Begriffen erklärt habe. Aber es gibt Ihnen ein bisschen ein Gespür davon, worum es bei der Menschenwürde geht. Der Philosoph Api hat das sehr schön auf den Punkt gebracht: “Everybody matters!“. Also jeder Mensch zählt. Auch das eine Umschreibung, die es schön auf den Punkt bringt, worum es eigentlich bei der Menschenwürde geht. Ich möchte das ein bisschen im makaberen (makaber: stellt auf scherzhafte, teils unangenehme Weise eine Beziehung zum Tod, zu Krankheiten oder Vergänglichem her) Bild fassen, damit es noch deutlicher vor Augen führt, was die Menschenwürde versucht, deutlich zu machen. Sie versucht eigentlich deutlich zu machen, dass es einen Unterschied gibt zwischen einem materialen Objekt, mit diesem Rednerpult und Menschen. Also wenn ich dieses Rednerpult jetzt an die Wand schmeißen würde, dann wär das ethisch relevant, dann wenn’s kaputt geht. Und dann müssen wir sagen, okay Ressourcenverschleiß, aber es wär jetzt niemand aufgeschreckt dadurch, vielleicht irritiert. Wenn ich jetzt einen Menschen … und den Rest sage ich jetzt auch nicht, weil es brutal ist, aber wenn ich das Gleiche tun würde mit einem Menschen, dann wäre deutlich, dass da was anderes passiert aus ethischer Perspektive, dass hier eine andere ethische Relevanz vorliegt. Und das versucht eigentlich die Menschenwürde deutlich zu machen, dass eben Menschen Träger und Trägerinnen von Würde sind. Würde ist auch ein anderer Begriff als Wert. Wir messen einem Gegenstand einen Wert zu. Ich kann sagen, diese Maus kostet hundert Franken. Und da spreche ich einen Wert zu, während wir dem Menschen eben keinen Wert zusprechen. Das ist zum Beispiel in der 5G-Diskussion nicht ganz unrelevant. Weil wir ja nicht sagen können, ja gut wenn es nur eine kleine Gruppe von Menschen betrifft, die sich da in ihrer Lebensqualität eingeschränkt erlebt und darunter leidet unter den Strahlen zum Beispiel. Dann können wir nicht einfach sagen, es ist nur eine kleine Gruppe von Menschen, das können wir vernachlässigen. Weil auch diese Menschen selbstverständlich Träger und Trägerinnen von Menschenwürde sind. Also die Menschenwürde als Prinzip schützt uns vor jeglicher Quantifizierung, dass wir sagen, der Mensch hat mehr Wert als ein Anderer oder 100 Menschen haben mehr Wert als nur ein Mensch. Nun, Menschenwürde aller Menschen sozusagen, also zu sagen, dass alle Menschen Träger und Trägerinnen von einer solchen Würde sind, bedarf einer großen Begründung, weil eine hohe Begründungslast besteht, wenn ich so eine universelle (universell: bezeichnet räumliche und zeitliche Unveränderlichkeit und Generalisierbarkeit) Aussage mache. Wie kann das geschehen? Ich würde vorschlagen, das Prinzip der Verletzbarkeit. Das ist jetzt der komplexeste Teil meiner Ausführung. Also wenn wir jetzt eine Wanderung gemeinsam machen würden, dann wäre das jetzt der Steilhang und nachher kommt dann ein gemütlicher Alpspaziergang. Also kurz nochmal tief einatmen für die Steilwand. Ich versuche, die Menschenwürde aller Menschen mit dem Prinzip der Verletzbarkeit zu begründen. Das ist ein 400-Seiten-Buch in drei Minuten zusammen gefasst. Worum geht’s bei dem Prinzip der Verletzbarkeit? Es geht um Folgendes. Menschen erleben sich als verletzbar. Ich nehme mich heute als gesund war, weiß um die Möglichkeit, dass ich morgen krank sein könnte. Das ist eine mögliche Verletzbarkeit. Ich möchte Sie aber einladen dazu, Verletzbarkeit nicht nur in einem medizinischen physischen Sinn zu denken. Ich kann auch dahingehend verletzbar sein, dass ich heute politisch mitbestimmen darf in der Schweiz, aber morgen zum Beispiel eine Bundesrätin oder ein Bundesrat auf die Idee kommen könnte: Ich mach’s morgen allein. Also eine Diktatur eingeführt werden würde. Dann wären wir auch in dieser Hinsicht der politischen Mitbestimmungsrechte verletzbar. Jetzt keine Sorge, das halte ich nicht für ein wahrscheinliches Szenario. Aber es ging mir nur darum, das zu veranschaulichen. Ich würde Sie einladen dazu, Verletzbarkeit so weit und breit wie nur möglich zu denken. Also Menschen erleben ihre eigene Verletzbarkeit. Und im Zuge dieser Wahrnehmung der eigenen Verletzbarkeit nehmen sie die Erste-Person-Perspektive und ein Selbstverhältnis wahr. Was ist damit gemeint? Die Erste-Person-Perspektive bringt zum Ausdruck, dass jeder Mensch ihr, beziehungsweise sein Leben, so erlebt wie kein anderer Mensch. Ich erlebe jetzt meinen heutigen Tag, den erlebe ich als Subjekt meines Lebens und Sie können von außen zwar sagen: „Ok, er redet jetzt gerade, er strengt sich jetzt da an“, aber Sie können nicht mein Leben leben. Wie auch ich nicht Ihr Leben leben kann. Jeder Mensch lebt ihr bzw. sein Leben selbst, das bringt die Erste-Person-Perspektive zum Ausdruck. Und das Selbstverhältnis meint, dass ich mich zu meinem Leben in Bezug setzten kann. Also ich kann mein Leben selbst betrachten und mir dazu Fragen stellen. Jetzt merk ich aber, dass auch die Erste-Person-Perspektive und das Selbstverhältnis verletzbar sind. Auf den Punkt gebracht, wenn wir sterben ist es vorbei mit der Ersten-Person-Perspektive und dem Selbstverhältnis zum Beispiel. Also auch hier besteht eine entsprechende Verletzbarkeit. Und dann nehmen wir wahr, dass das nicht ein Peter-Kirchschläger-Problem ist, die Verletzbarkeit, sondern, dass alle Menschen verletzbar sind. Und das führt dazu, dass wir eigentlich feststellen, dass auch alle Menschen eine Erste-Person-Perspektive und ein Selbstverhältnis haben und, dass eigentlich die Bedingung der Möglichkeit eines Lebens als Mensch darstellt. Also wenn wir uns überlegen, was alle Menschen teilen, dann wäre mein Vorschlag als Antwort, diese Erste-Person-Perspektive und dieses Selbstverhältnis. Und jetzt noch der letzte Satz dazu, das letzte Stück der Steilwand. Wenn wir merken, dass wir selber alle verletzbar sind, dann ist es nicht nur eine solidarische Entscheidung, sondern eine kluge, rationale, im Sinne einer Eigeninteressenverfolgung sich ergebende Entscheidung, allen Menschen Menschenwürde zuzusprechen. Weil ich nie weiß, wann transferiert sich meine Verletzbarkeit in eine konkrete Verletzung. Also wann werde ich krank? Wie schlimm ist es? Ist es nur eine kleine Grippe oder ist es eine Tumorerkrankung? Und ich weiß nie, ob es geschieht. Also aufgrund dieser Ungewissheit ist es für mich die klügste und rationalste Entscheidung zu sagen: Alle Menschen sollen doch mit Menschenwürde versehen werden, damit sie dahingegen auch einen entsprechenden Schutz erfahren. Das zweite Prinzip, das ich herbei ziehen möchte für unsere ethische Betrachtung der digitalen Transformation, ist das Verantwortungsprinzip. Bei Verantwortung geht es darum, Verantwortungsrelationen zu identifizieren. Zum Bespiel bin ich heute verantwortlich für dieses Referat. Also ich bin verantwortlich Herrn Jakob gegenüber aber auch Ihnen gegenüber, weil Sie mir zuhören. Also hier besteht bereits eine Verantwortungsrelation und die ist genau zu identifizieren. Also wenn z.B. 5G eingeführt wird, stellt sich die Frage, wer ist dafür verantwortlich? Wem gegenüber? Das ermöglicht uns das Verantwortungsprinzip. Und dann geht es auch darum, die Verantwortungssphäre zu identifizieren. Also zu sagen, für welchen Bereich bin ich verantwortlich, bin ich lokal verantwortlich, national, global. Auch das gilt es zu klären. Und dann ist zu beachten, dass zu Macht und Einfluss immer eine entsprechende Verantwortung korrespondiert. Also wenn ich Macht und Einfluss habe, habe ich auch eine Verantwortung. Und je nachdem wenn ich mehr Macht habe, habe ich mehr Verantwortung, wenn ich weniger Macht habe, habe ich weniger Verantwortung. Die Verantwortung einer Bundesrätin, eines Bundesrates ist grösser in politischen Angelegenheiten der Schweiz, als die von mir. Das heißt nicht, dass ich keine Verantwortung habe, aber in Relation zu Macht und Einfluss, den oder die ich hab. Und das kann je nach Kontext unterschiedlich ausfallen, also müssen wir je nach Kontext genau betrachten, wer hat eigentlich in welcher Form wie Macht und Einfluss und dazu korrespondiert dann auch eine unterschiedliche Verantwortung. Jetzt möchte ich das an einem Beispiel, Beispielbereich der digitalen Transformation, mit Ihnen gemeinsam durchspielen, nämlich der Automatisierung von Mobilität. Ich möchte mal zunächst darauf hinweisen, dass ich ganz bewusst von automatisierten Fahrzeugen und nicht von sogenannten autonomen Fahrzeugen spreche, weil der Autonomiebegriff viel mehr umfasst, als nur selbstfahrend zu sein. Autonomie ist eine Kategorie der Philosophie, der Theologie, der Ethik, wo es darum geht, zum Ausdruck zu bringen: „Autos nomos“ – also keine Angst, wir machen jetzt keine Griechischstunde – aber es meint eigentlich nichts anderes, als „autos“ – mein Selbst und „nomos“ – Gesetz, also dass man sich selbst Gesetze geben kann. Und zwar in moralischer Hinsicht, dass wir Menschen fähig sind, uns eigene, selber eigens ethische Regeln aufzustellen, die zu erkennen und die auch als verbindlich zu erachten. Wenn wir das bei Fahrzeugen aussagen würden, müssen wir feststellen, dass das nicht wirklich zutreffend ist, weil was sie können, ist zwar selber fahren, aber sie können sich nicht selber ethische Regeln aufstellen. Also wenn mich z.B. heute Vormittag ein selbstfahrendes Fahrzeug vom Bahnhof hierher gebracht hätte, dann kann ich diesem Fahrzeug selbstverständlich die Regel mitgeben, du sollt keine Menschen überfahren. Ich kann aber gleichzeitig, könnt ich diesem Fahrzeug auch Regeln geben, bitte bring mich von A nach B, so schnell wie möglich, koste es was es wolle. Das Fahrzeug würde diese Regel genau gleich befolgen wie die erste, ohne den Unterschied zu merken, dass das eine von ethischer Qualität ist, nämlich den Menschen zu schützen, und das andere im Sinne einer Effizienzsteigerungsmaßnahme, auch zu ethischen Problemen führen kann. Wenn ich nämlich möglichst schnell von A nach B fahre, kann es auch sein, dass ich Menschen überfahre. Also worauf ich hinaus möchte, ein selbstfahrendes Fahrzeug kann sehr wohl Regeln befolgen, aber es kann nicht einsehen, was der Unterschied ist zwischen einer ethischen Regel und einer nicht ethischen Regel. Weil Automatisierung schlussendlich nichts anderes ist, als auf einen bestimmten Zweck hin arbeiten, diesen Zweck erfüllen. Und wenn dieser Zweck dann halt heißt, den Passagier von A nach B möglichst schnell zu bringen, dann hat das halt entsprechende Implikationen. Ich würde also argumentieren wollen, dass Autonomie als moralische Kategorie allein dem Menschen vorbehalten ist und zwar, das werden wir dann gleich in Folge ausführen, das hat die folgende Konsequenz, dass ich sehr wohl selbstfahrenden Fahrzeugen Regeln und Prinzipien mitgeben, unbedingt, sollten wir auch tun, aber wir sollten uns bewusst sein, dass das durch programmieren, durch Prägung durch den Menschen geschieht und nicht die Fahrzeuge das selber erkennen können und deswegen würde ich auch sagen, dass Begriffe wie z.B. auch moralische Technologie, ein unzutreffender Begriff ist. Jetzt habe ich sehr viel behauptet, jetzt müssen wir das noch begründen. Das machen wir jetzt gleich in der Folge. Wie lässt sich das begründen? Wie lässt sich begründen, dass eben Maschinen keine, ich mach jetzt ein Beispiel von Fahrzeugen, aber Sie können das auch auf anderer Systeme - Maschinen, Roboter, künstliche Intelligenz (Künstliche Intelligenz: Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen beschäftigt) – übertragen, wieso würde ich von denen aussagen, dass sie keine Moralfähigkeit, keine Autonomie kennen. Aus den folgenden Gründen; ich würde zunächst mal argumentieren wollen, das Gewissen, das was für den Menschen eine ziemlich wichtige Rolle spielt, im Zuge von ethischer Beurteilung, im Bezug im Kontext von Moral von Maschinen nicht ausgesagt werden kann. Weil Maschinen die Potentiale fehlen, die im Gewissen zusammenfließen, nämlich des Sollens, der Verpflichtung und Verantwortung, der Existenz. Eine Maschine kann nicht auf ihr Leben zurückschauen oder das miteinbeziehen – und das fließt beim menschlichen Gewissen zusammen. Das ist nicht mein stärkstes Argument, weil das Gewissen als Größe, obwohl, ich sag’s mal für mich, ich hab schon ein schlechtes Gewissen erlebt, das möchte ich jetzt Ihnen nicht unterstellen, aber ich hab das schon erlebt, wenn ich etwas Falsches getan habe, das manifestiert sich sehr deutlich. Es ist aber deswegen nicht mein stärkstes Argument, weil es durchaus von neurowissenschaftlicher (Neurowissenschaft: naturwissenschaftliche Forschungsbereiche zu Aufbau und Funktionsweise von Nervensystemen) Seite in Frage gestellt wird, ob es überhaupt so etwas gibt, wie ein Gewissen. Weil es doch nichts anderes ist als biochemische Prozesse. Da gibt es natürliche Argumente dagegen. Ein Hauptargument wäre, dass interessanterweise der Mensch nicht immer nur das tut, was ihn interessiert, was seine Präferenz ist, was sein Bedürfnis ist, was seine Lust ist, sondern der Mensch auch oftmals das tut, was er eigentlich nicht will, aber es doch tut, weil es eben gesollt ist. Weil es etwas ist, was von ihm als Pflicht, was von ihm als Verantwortung erwartet wird. Aber nur ganz kurz, Aussage – das ist das erste Argument, es ist nicht das stärkste. Das stärkste Argument ist die Freiheit und damit verbunden die Verantwortung. Ich würde argumentieren wollen, dass Maschinen nicht frei sind und deswegen keine Verantwortungssubjektivität wahrnehmen können. Was ist mit Verantwortungssubjektivität gemeint? Das bedeutet, dass ich Träger und Trägerin von Verantwortung sein kann. Ich kann aber Träger und Trägerin von Verantwortung nur sein, wenn ich frei bin. Jetzt stellt sich die Frage, können Maschinen frei sein? Ich würde argumentieren, dass Freiheit den Maschinen nicht angesagt werden kann. Wieso? Weil – bildlich gesprochen – in letzter Konsequenz immer ein Mensch die erste Zeile einer Programmierung, die erste Zeile eines Codes (Codes: System von Regeln zur Umwandlung von Informationen), den ersten Schritt einer Entwicklung macht. Das ist immer ein Mensch. Menschen prägen Maschi nen. Menschen prägen Maschinen auch in Bezug darauf, welche Regeln Maschinen zu befolgen haben. Und wenn jetzt aber keine Freiheit und Verantwortung ausgesagt werden kann, kommt jetzt noch als nächstes Argument hinzu, Maschinen können auch nicht moralfähig gedacht werden, weil sie eben diesen Moment der Selbstgesetzgebung, das ich vorher ausgeführt habe, nicht kennen. Also Maschinen können nicht sich selber ethische Regeln geben. Passen Sie auf! Ich sage damit nicht, dass Maschinen nicht sich selbst Regeln setzen können. Natürlich kann sich eine Maschine selber Regeln setzen. Ich komme nochmals zurück auf das selbstfahrende Fahrzeug. Das kann im Sinne einer Effizienzsteigerungsmaßnahme die Regel setzen „ab morgen halte ich nicht mehr beim Fußgängerstreifen, sondern fahre einfach weiter, weil ich dadurch eine Minute einsparen kann“. Das kann eine Regel sein, die sich ein selbstfahrendes Fahrzeug selber setzt. Was wir aber dabei merken ist, das ist definitiv keine ethische Regel. Also nicht eine Regel, die als ethisch legitim (legitim: anerkennungswürdig beziehungsweise rechtmäßig) betrachtet werden würde. Wieso? Weil sie dem Prinzip der Verallgemeinbarkeit nicht gehorcht. Was ist das Prinzip der Verallgemeinbarkeit? Das meint, dass ich mich immer fragen muss, wenn ich eine Regel aufstelle, soll die allgemeines Gesetz werden? Das ist eine Anlehnung an Immanuel Kant (Immanuel Kant: deutscher Philosoph der Aufklärung), also soll das, was ich hier formuliere, überall gelten. Also wenn ich mich frage, soll die Regel – ich fahr bei Fußgängerstreifen, ich halte nicht, sondern fahre weiter – soll das eine allgemeine Regel werden? Dann wird man argumentieren „nein, das ist nicht vorstellbar“, weil zumindest sicher die Menschen, die auf dem Fußgängerstreifen sind, dagegen wären und hoffentlich auch ein paar andere, um sie zu schützen. Wenn Menschen eben als Selbstgesetzgebende betrachtet werden, dann wird deutlich, dass sie deswegen auch nicht instrumentalisiert werden. Also Immanuel Kant würde argumentieren, weil Menschen eben solche Gesetzgebung leisten können, dürfen sie auch nicht instrumentalisiert werden. Ich komme nochmals zurück auf das absurde Beispiel des „ ich werfe das Rednerpult an die Wand und ich werfe einen Menschen an die Wand“. Und der qualitative Unterschied, da kommt genau das zum Ausdruck, dass Menschen eben nicht instrumentalisiert werden dürfen. Wie es bei Kant genau heißt, all seines vernünftigen Wesens, das keinem Gesetz gehorcht, als dem, das es zugleich selber gibt. Jetzt wichtig, Kant meint damit nicht, dass wir Menschen einfach so nach Lust und Laune uns selber ethische Regeln geben. Sondern bei ethischen Regeln muss ja immer die Bedingung erfüllt sein, dass eben das Prinzip der Verallgemeinbarkeit respektiert wird, nämlich, dass ich mir vorstellen kann, dass es eine allgemeine Regel werden kann. Also würde ich argumentieren, dass die Moralfähigkeit nicht dem Potential von Maschinen entspricht. Also ich würde argumentieren wollen, dass Maschinen nicht moralfähig sind und dazu einladen, dass wir sehr präzise bleiben bei der Beschreibung dessen, was Technologien wirklich können. Das macht einen groben Unterschied aus, ob ich ein selbstfahrendes Fahrzeug einfach selbstfahrend verstehe, also sich selber sich seinen Weg durch den Verkehr bahnt, oder dass ich von diesem selbstfahrenden Fahrzeug aussage, dass es sich selber ethische Regeln setzen kann. Das ist ein wesentlicher Unterschied, deswegen lade ich zur begrifflichen Präzision ein. Das gleiche Fragezeichen würde ich auch setzen, wenn wir Maschinen Intuition zusprechen. Einige von Ihnen haben vielleicht mitbekommen, dass eine Maschine – das sogenannte „Go-Spiel“ (Go-Spiel: strategisches Brettspiel für zwei Spieler) gewonnen hat. Das ist ein Spiel, das in unseren Breitengraden nicht so verbreitet ist, im asiatischen Raum sehr verbreitet ist, höchst komplex, im Unterschied zum Schachspiel nicht nur auf logischer Deduktion (Deduktion: aus allgemeinen Aussagen bestimmte Schlussfolgerungen für den Einzelfall treffen) basierend, sondern auch darauf, dass ich, beim Menschen zumindest, eben intuitiv spiele. Also es gibt eine unsichere Informationslage und da muss ich wie aus dem Gefühl heraus, also aufgrund von Erfahrungswerten dann, als menschlicher Spieler und Spielerin Entscheidungen treffen. Weil jetzt Maschinen Menschen auch in diesem Spiel geschlagen haben, sprechen gewisse Experten und Expertinnen im Forschungsdiskurs (Diskurs: „erörternder Vortrag“ oder „hin und her gehendes Gespräch“) von Intuition. Also sie sagen, diese Maschinen seien mit Intuition begabt. Und da wäre ich vorsichtig, weil die machen eigentlich nichts anderes, als Wahrscheinlichkeitsrechnungen in kürzester Zeit aufgrund von großen Datenmengen. Das ist eigentlich das, was passiert: Unsichere Informationslage, dann berechne ich Wahrscheinlichkeit. Das Gleiche gilt für die Feststellung, dass mittlerweile Maschinen Menschen im Pokerspiel schlagen. Da von „Pokerface“ zu reden finde ich auch höchst problematisch, weil auch hier passiert eigentlich nichts anderes, als programmierte Wahrscheinlichkeitsberechnungen. Was aus ethischer Perspektive aufgrund dieser Ausführungen auszusagen ist, dass wir im Rahmen der Automatisierung von Mobilität große ethische Chancen auch dahingehend erkennen können, nämlich, dass wir mit weniger Unfalltoten rechnen. Also Maschinen fahren nicht betrunken, sie fahren nicht verärgert, sie fahren auch nicht testosterongesteuert, wie auch immer. Wir können auch feststellen, dass die Automatisierung von Mobilität zu einer massiven Reduktion von Fahrzeugen führt. Wenn wir selber noch ein Auto besitzen, dann steht das 90 – 95 % der Zeit auf einem Parkplatz oder in einer Garage. Das kann man, glaube ich, effizienter lösen. Auch aus ökologischer Perspektive sehr interessant. Dass wir also davon ausgehen, dass noch 10 % oder weniger als 10 % der heutigen Anzahl von Fahrzeugen notwendig sind, die dann auch noch viel einfacher ausgerüstet sind, weil man nicht mehr Fahrzeuge auf 300 km/h ausstattet, sondern auf eine viel tiefere Geschwindigkeit, die dann im Durchschnitt gefahren wird. Man geht von einem Anstieg der Fahrtenkilometer aus und eben, dass die Fahrzeuge leichter sind, weil die damit verbundenen Sicherheitskonzepte deutlich reduziert werden können. Und damit verbunden eben auch von einer Emissionsreduktion, die ebenfalls ethisch positiv ist natürlich aus ökologischer Perspektive. Ich möchte im nächsten Schritt auf die Interaktion zwischen Mensch und Maschine eingehen. Und hier können wir feststellen, dass Maschinen aufgrund dieser intensiven Interaktion dazu auch befähigt sind, Menschen auch zu verändern. Wir stellen zum Beispiel bei Kindern und Jugendlichen fest, dass es durchaus attraktiver ist, eine Beziehung via Nachricht zu beenden, als in einem Vieraugengespräch. Das lässt uns schmunzeln, aber ist gleichzeitig auch alarmierend dahingehend, wie es um unsere zwischenmenschlichen Fähigkeiten eigentlich steht. Die Thematik der wachsenden Abhängigkeit von Maschinen, ich möchte es an einem Beispiel deutlich machen, auf das ich dann später wieder nochmals zurückkommen werde. Und wenn ich später sage – keine Sorge – ich habe den Zeitplan immer noch im Griff. Nicht, dass Ihr denkt, das mache ich dann am Nachmittag. Wenn Sie sich vorstellen: Assistenzsysteme für Menschen mit einer Behinderung zum Beispiel. Faszinierend dahingehend aus ethischer Perspektive und höchst positiv, dass sie dem Menschen ein selbstbestimmtes Leben ermöglichen. Schwierigkeit: Menschen werden davon abhängig. Also, wenn sie sich jemals auf so ein Assistenzsystem abgestützt haben in der Meisterung Ihres Lebensalltags, dann werden sie diese Maschinen nicht mehr aufgeben wollen. Das heißt, das kann, wenn ich jetzt der Anbieter von solchen Maschinen bin, für die Preisgestaltung höchst interessant sein. Also, was wir ja zum Beispiel bei Medikamentenpreisen durchaus beobachten können, dass Medikamente eingeführt werden, Menschen die dann nützen, von der Wirkung profitieren und sobald eine gewisse Abhängigkeit da ist, dann die Preise hochgefahren werden, weil man genau weiß, die Menschen werden auch diese Preise weiterzahlen, weil eine entsprechende Abhängigkeit im Blick ist. Da stelle ich nicht grundsätzlich das marktwirtschaftliche Muster dahinter in Frage, sondern möchte nur darauf hinweisen, dass wir uns diesbezüglich Gedanken machen müssen, weil hier eine solche Abhängigkeit entstehen kann. Und eben die Fähigkeit zur zwischenmenschlichen Interaktion, etwas, das wir im Blick haben müssen. Die Frage, ob wir nicht zu einer Robotisierung des Menschenbildes hintendieren, weil wir uns kritisch fragen müssen, ob wir nicht dadurch, dass wir versuchen, alles zu programmieren, alles in die Sprache der Mathematik zu übersetzen, aus dem Blick verlieren, dass es auch Dinge gibt, die sich nicht in die Sprache der Mathematik, nicht in die Sprache von Programmierung übersetzen lässt. Und schließlich der Drang, das Streben, den Menschen zu perfektionieren. Das ethisch Problematische ganz kurz daran ist im Kern, dass dann Menschen eigentlich als Mangelwesen als Ausgangspunkt genommen werden. Also Menschen, wie wir heute sind, sind einmal in erster Linie durch ihre Mängel bestimmt und die gilt es zu beheben. Und das ist nicht unbedingt eine sehr schöne Art und Weise, von Menschen zu denken. Um es mal hierbei zu belassen, da gäbe es noch mehr zu sagen. Dann ist der Datenschutz massiv unter Druck. Also wir machen heute Dinge, die vor diesem Standard, den wir uns jahrhundertelang erkämpft haben, Menschenrechtsschutz von Daten, Menschenrechtsschutz von Privatsphäre, die eigentlich überhaupt nicht damit vereinbar sind. Die Privatsphäre ist deswegen auch so relevant, weil sie freiheitsrelevant ist. Wir wissen, dass Menschen sich anders verhalten, wenn sie überwacht werden. Und das ist verändernd, wenn sie dauernd sich nicht so frei verhalten können. Und hier besteht ganz grundsätzlich die Gefahr, dass wir mühsam erkämpfte Rechte aufgeben. Jahrhundertelang mühsam erkämpfte Rechte. Hier gilt es deutlich dagegen zu halten, wieder dafür zu sorgen, dass diese mühsam erkämpften Rechte entsprechend weiter realisiert und durchgesetzt werden. Und dafür müssen wir uns auch über Ziele und Grenzen des technologischen Fortschritts austauschen. Wir müssen aushandeln, wie weit technologischer Fortschritt und in welche Bereiche dieser auch gehen darf. Was sein soll, und was nicht sein soll. Auf den Punkt gebracht: Nicht alles technisch Machbare soll auch gemacht werden. Es gibt Dinge, die technisch machbar sind, die aber Menschen schaden oder der Umwelt schaden und deswegen aus ethischer Perspektive zu hinterfragen sind. Ich mach grad eine schöne Brücke zum sechsten Abschnitt, nämlich der globalen Ungleichzeitigkeit. Was ist damit gemeint? Damit ist gemeint, dass wir feststellen, dass aus einer globalen Perspektive – und Sie merken, hier bin ich beim Stichwort „Verantwortungssphäre“, also denke ich nur lokal, denke ich national oder denke ich global? Ich würde argumentieren, dass wir mit dem Prinzip der Menschenwürde, wir automatisch auch global denken müssen. Wir alle Menschen als Trägerinnen und Träger von Menschenwürde betrachten und nicht nur Schweizerin und Schweizer. Oder nicht nur Menschen, die in Europa leben, sondern eben alle Menschen. Dann hat das eine Implikation, hat das eine Folge auf die Verantwortung, dass wir eben gegenüber von allen Menschen eine Verantwortung haben. Und da stellen wir fest, dass die digitale Transformation weltweit unterschiedlich schnell und intensiv abläuft. Zudem stellen wir fest, dass es auch globale Asymmetrien gibt in den digitalen Transformationsprozessen. Die möchte ich daran festmachen, dass nur wenige Menschen darüber entscheiden, wie digitale Transformation vor sich geht. Digitale Transformation ist ja nicht einfach etwas, was über die Menschheit kommt, ohne dass die Menschheit irgendeinen Einfluss darauf hätte. Digitale Transformation gestalten wir. Wir Menschen gestalten digitale Transformation. Und können entscheiden, dass es so oder so verlaufen soll. Es ist nicht etwas, das wir einfach als gegeben akzeptieren müssen, sondern wir haben ja eine Gestaltungsverantwortung. Und hier stellen wir fest, dass eigentlich nur wenige Menschen, die Macht und Einfluss haben, das auch entsprechend einbringen. Also hier besteht eine Asymmetrie. Die besteht auch in Bezug auf politische Mitsprache, die besteht aber auch in Bezug darauf, wer den Nutzen genießen darf, und wer darunter leiden muss. Also wir blenden konsequent und interessanterweise auch im ethischen Diskurs zu dieser Thematik, konsequent aus, dass Menschen für diese Technologieprodukte, für den technologischen Fortschritt, in der Schürfung von Rohstoffen, massiv in ihrer Menschenwürde, in ihren Menschenrechten verletzt werden, dauernd, täglich, Kinderarbeit in den Minen. Und das lassen wir einfach so zu. Und wir lassen auch zu, dass Menschen in ihren Menschenrechten, in ihrer Menschenwürde, in den Fabriken, wo diese Produkte dann zusammengesetzt werden, auch in ihren Menschenrechten, in ihrer Menschenwürde verletzt werden. Und hier besteht dringender Handlungsbedarf. Im Zuge der digitalen Transformation ist aus ethischer Perspektive auch relevant - und Sie merken, wir sind bereits beim Abschnitt sieben, also Sie können alle entspannt sein, wir kommen zeitlich perfekt hin - was wir bei digitaler Transformation auch feststellen, ist, dass wenn Maschinen mehr und mehr Tätigkeiten übernehmen, sich die Frage stellt: Was passiert eigentlich mit den menschlichen Arbeitskräften? Also was passiert mit bezahlten, beruflichen Aufgaben? Wenn Sie schon mal in einem Lebensmittelgeschäft gesehen haben, dass Sie die Option haben, eine automatisierte Kasse zu verwenden oder zu einer menschlichen Kassiererin/Kassierer zu gehen: Das ist jetzt genau die Thematik. Also wo wir tagtäglich eigentlich erleben, dass automatisierte Kassen natürlich dazu führen werden, dass Menschen hier nicht mehr der Tätigkeit als Kassiererin/Kassierer nachgehen können. Ist keine Nobelpreisentdeckung, dass das so sein wird, weil es ökonomisch interessant ist. Also ich kann hier eine Effizienzsteigerung als Unternehmer hinkriegen, weil automatisierte Kassen mittlerweile günstiger sind, als eine Kassiererin, ein Kassierer auf der Lohnliste. Nun, jetzt würde ich argumentieren wollen, dass eben wir insgesamt von einer massiven Reduktion der bezahlten beruflichen Aufgaben ausgehen müssen. Also, dass wir 20 – 50 %, (da gehen die Studien auseinander, 20 % ist eben eher defensiv gerechnet, 50 % offensiv), 20 – 50 % des Arbeitsmarktes für den Menschen wegfallen wird in den nächsten 15 – 20 Jahren. Also 15 – 20 Jahre ist ungefähr die Zeitspanne, wenn heute ein Kind in die schulische Laufbahn einsteigt, die Kinder werden, eine Hälfte davon oder je nach dem eben 20 %, werden niemals in eine berufliche Aufgabe einsteigen. Niemals. Nicht mal verlieren und dann wieder. Nein! Das nie erleben, wie das ist, einer bezahlten beruflichen Tätigkeit nachzugehen. Wieso will ich argumentieren, dass das so ist? Weil man kann ja natürlich dagegen halten: Ja, in der Menschheitsgeschichte haben Menschen immer Angst gehabt, dass aufgrund von technologiebasiertem Fortschritt Menschen nicht mehr gebraucht werden und es wurden dann immer noch viel mehr gebraucht. Also wir wissen, dass z. B. in Diskursen, um die Industrialisierung herum auch solche Argumente aufgetaucht sind, dass Menschen gesagt haben, es werde keine Menschen mehr brauchen. Was dann faktisch eingetreten ist: Es hatte noch mehr menschliche Arbeitskräfte gebraucht. Was ist aber der wesentliche Unterschied heute im Verhältnis zu früheren technologiebasierten Wandelepochen? Zum einen ist es der Fokus, das Ziel. Es geht um Ersatz, es geht nicht um Erleichterung. Ich komme nochmals zum Pflug/Traktor zurück. Der Schritt vom Pflug zum Traktor, da ging es um Erleichterung. Die Bauern, die Bäuerin/den Bauern hat es weiterhin gebraucht. Aber die Tätigkeit wurde deutlich leichter gemacht. Bei der automatisierten Kasse geht es nicht darum, der Kassiererin/dem Kassierer ihren Arbeitsalltag zu erleichtern, denen die Möglichkeit zu geben, mal eine Zeitung zu lesen oder ausführlicher mit dem Kunden zu reden. Nein, es geht darum, sie von der Lohnliste zu streichen - Ersatz. Zweites Argument: Es sind selbstlernende Maschinen, großmehrheitlich oder im Potential. Das heißt, es braucht wenig bis keinen menschlichen Input, dass diese Maschinen laufen, dass sie sich weiterentwickeln können. Die lernen das selber. Wir sind drittens, und das ist wahrscheinlich der wichtigste Unterschied, es sind alle beruflichen Aufgaben betroffen. Denken Sie an Roboterrichter, an Roboteranwältinnen/Anwälte, denken Sie an chirurgische Eingriffe, die robotisiert ablaufen. Es geht nicht wie bei früheren technologiebasierten Wandelepochen und ihrer Wirkung auf bezahlte berufliche Tätigkeiten, um Aufgaben, die wenig bis keine berufliche Qualifikation voraussetzen, sondern es sind alle beruflichen Aufgaben von digitaler Transformation betroffen. Schließlich stellt man eine wechselseitige Verstärkung – das ist das vierte Argument zwischen Digitalisierung und Globalisierung – fest. Was ist damit gemeint? Digitalisierung wird durch Globalisierung befeuert, weil wir nicht nur auf schweizer Daten, sondern auf weltweite Daten zugreifen können. Und umgekehrt ermöglicht Digitalisierung Fortschritte im Bereich der Globalisierung, weil ich kostenlos z.B. mit dem anderen Ende der Welt telefonieren kann in höchster Qualität. Also das befeuert natürlich Globalisierung. Fünftes Argument: Das Tempo der Veränderung. So rasant ging es noch nie. Und schließlich Sechstens: Dass eben, das habe ich bereits erläutert, das Arbeits- und das Privatleben durchdrungen wird von digitaler Transformation. Der Wechsel vom Pflug zum Traktor hatte keinen Einfluss auf das Schlafzimmer der Bäuerinnen und Bauern. Digitale Transformation kann durchaus, also ich möchte ja niemandem zu nahe treten, aber kann durchaus in unserem Privatbereich massive Veränderungen herbeiführen. Jetzt die Frage: Wenn es zu solcher Reduktion von bezahlten beruflichen Aufgaben kommt, soll man das bedingungslose Grundeinkommen einführen? Was ist das bedingungslose Grundeinkommen? Es geht im Kern, da gibt es ganz verschiedene Schattierungen, Facetten, Nuancen, vor allem im Kern einer dieser verschiedenen Ansätze, die unter das bedingungslose Grundeinkommen fallen: Zum einen „Existenzsicherung“. Es geht um Existenzsicherung, es geht um Ermöglichung von gesellschaftlicher Teilhabe, es geht um eine einkommens- und vermögensunabhängige Transferzahlung. Also es wird nicht überprüft, wie viel Sie verdienen, oder was Sie besitzen, und es wird vollzogen ohne Bedürftigkeits- und Vermögensprüfung. Ich würde vorschlagen, hier noch weiter zu denken und eine leichte Anpassung vorzunehmen. Und zwar deswegen, weil der bezahlte berufliche Arbeitsplatz mehr Funktionen erfüllt, als nur den finanziellen, die finanzielle Funktion. Sinnstiftend, sie ist identitätsstiftend. Ein Beispiel: Wenn Sie bei einem Apéro sind und niemanden kennen und jemand fragt: „Was machen Sie? Die wenigsten von uns sagen: „Ich spiele gerne Fussball.“, oder „Ich gehe gerne Skifahren“. Sondern wir sagen das, was wir beruflich tun, oder was wir getan haben, oder in welcher Ausbildung oder Weiterbildung wir uns befinden. Das definiert uns sehr stark, unser Selbstverständnis. Das ist auch eine Funktion der bezahlten beruflichen Tätigkeit, die ein bedingungsloses Grundeinkommen nicht abdecken kann. Wir lernen auch am bezahlten beruflichen Arbeitsplatz - ganz kurz - wir lernen am bezahlten beruflichen Arbeitsplatz auch, mit Menschen umzugehen, die wir uns nicht selber auswählen. Also im privaten Bereich haben wir da größere Einflussmöglichkeiten. Ich sage nicht, dass die absolut sind, aber immerhin haben wir mehr Zugriff. In der bezahlten beruflichen Tätigkeit haben wir das nicht. Da müssen wir uns arrangieren, da müssen wir lernen, mit anderen Menschen umzugehen, die wir uns nicht selber aussuchen. Und das führt dann eigentlich zu einer gesellschaftlichen Integration. Also wir lernen so auch, in einer Gesellschaft zusammen zu wachsen. Auch das beachtet das bedingungslose Grundeinkommen nicht. Deswegen würde ich vorschlagen, aus einer Perspektive der Menschen wieder eine leichte Anpassung. Das geht schnell, weil es nicht sehr komplex ist. Das „Society-, Entrepreneurship-, Research-Time-Model“ (Society-, Entrepreneurship-, Research-Time-Model: Modell von Kirchschläger für die Zeit nach dem „Zeitalter der Erwerbsarbeit“, welches die Idee eines bedingungslosen Grundeinkommens mit dem Modell des Zivildienstes verbindet), das ich vorschlagen würde. Das einzige, was nicht so, nicht ganz so komplex ist, ist der Name. Aber das ist mir nicht besser gelungen. Die Abkürzung dafür „SERT“, das geht. SERT meint, dass mit dem Blick, dass eben Menschenrechte nicht nur das Überleben von Menschen schützen, sondern eben ihre Menschenwürde vor allem auch in den Blick zu nehmen ist. Und was wir uns deswegen überlegen müssen ist: Was müssen wir tun, dass eben auch der Menschenwürde aller Menschen Rechnung getragen wird, und das kommt beim bedingungslosen Grundeinkommen zu kurz, wenn es nur darum geht, Existenz zu sichern. Ich würde deswegen sagen, es muss ein höheres Grundeinkommen sein, um ein menschenwürdiges Dasein zu ermöglichen. Also auf den Punkt gebracht: Nicht einfach ein „vor sich hinvegetieren“, sondern ein menschenwürdiges Leben muss allen Menschen ermöglicht werden. Und damit verbunden würde ich aber sagen, ist nicht bedingungslos, sondern jeder Mensch soll einen Beitrag leisten zu gesamtgesellschaftlichen Aufgaben. Das mache ich deswegen, weil es so eigentlich Menschen erleben können, wie es ist, einen Beitrag zur Gesellschaft zu leisten. Mal eine bezahlte berufliche Tätigkeit zu erleben. Und gleichzeitig will auch das Modell dann so auch Anreiz für Bildung, Forschung und Unternehmertum setzen, weil dann Menschen, die sich in Unternehmertum, Innovation, Forschung, Wissenschaft engagieren, von dieser Seite teilbefreit werden können. Also, zusammengefasst. Das SERT ist kein Ausdruck von Misstrauen gegen die Menschen, sondern versucht eigentlich, die Menschenwürde stärker in den Blick zu nehmen. Auch deutlich zu machen, dass wir Menschen mehr sind, als nur Lebewesen, die überleben wollen. Sondern wir wollen menschenwürdig leben und das SERT versucht, den Menschen ganzheitlicher gerecht zu werden und sowohl Selbstbestimmung, als auch Innovation zu achten. Jetzt werden Sie sich vielleicht fragen: Wer soll das zahlen? Dann kann ich Sie darauf hinweisen, dass ja eigentlich die Kernkonsequenz digitaler Transformation ist, dass die Wertschöpfungskette effizienter und effektiver abläuft. Also, Roboter können sieben Tage 24 Stunden ohne Müdigkeit, ohne Kater, ohne Liebeskummer usw. arbeiten, effizienter und effektiver. Aber wir merken auch, dass immer weniger Menschen eigentlich daran teilnehmen und teilhaben. Teilnehmen meint arbeitend, mitwirkend, teilhabend meint auch davon profitierend finanziell. Also die Ressourcen werden mehr, was wir aber organisieren müssen ist, wie wir sie verteilen. Ich komme zu meinen Schlussbemerkungen, zur Beruhigung von allen und auch als Hinweis: „Jetzt gehen wir dann gleich ins Gespräch miteinander“. Also, dass Sie auch mental sich darauf einstellen können. Ich würde argumentieren wollen, dass Maschinen aus ethischer Sicht Gutes bewirken können. Ich habe die assistierenden Systeme erwähnt, die dem Menschen mit einer Behinderung ein selbstbestimmtes Leben ermöglichen können. Das ist definitiv etwas ethisch Erfreuliches, Positives. Die Ambivalenz, die darin steckt ist aber, dass dieses Mehr an Selbstbestimmung mit dem Mehr an Abhängigkeit erfolgt, und dass auch so Menschen zu Datenlieferantinnen/-lieferanten dauernd werden. Maschinen können aus ethischer Sicht auch Schlechtes verursachen, z.B. Mensch und Umwelt Schaden zufügen, und hier ist insbesondere aus ethischer Perspektive das Komplexe daran die sogenannte „Dual Use“ Problematik. Also Dual Use meint zweifache Nutzungsmöglichkeit. Also ich kann z.B. eine Drohne dafür einsetzen, Menschen in einem Naturkatastrophengebiet mit überlebensnotwendigen Gütern zu versorgen. Das ist sicherlich ethisch positiv. Ich kann aber eine Drohne auch als Killer-Drohne einsetzen, und dann ist es sicherlich ethisch negativ zu betrachten. Ich würde argumentieren wollen, und das ist meine letzte Folie, dass die Moral-Fähigkeit der Menschen ein Alleinstellungsmerkmal der Menschen darstellt, dass das etwas ist, das den Menschen auszeichnet und damit verbunden ist es auch eine exklusiv dem Menschen zukommende Verantwortung. Und ich möchte an dieser Stelle noch mal betonen, damit verbunden ist auch eine Gestaltungs-Verantwortung der digitalen Transformation, eine Gestaltungs-Verantwortung des Einsatzes von künstlicher Intelligenz. Aus meiner Sicht geht es darum, jetzt ethische Prinzipien und rechtliche Normen festzulegen für diesen Bereich und auch entsprechende Rahmenbedingungen und Ziele und Grenzen jetzt festzulegen für Maschinen und digitale Transformation. Ich bin da zuversichtlich, und zwar deswegen – das ist mein letzter Gedanke, zumindest im Rahmen des Vortrages – ich bin deswegen zuversichtlich, weil die Menschheit schon bewiesen hat, dass sie das kann. Sie kann technisch Machbares nicht tun – auch global. Ich gebe da noch eine Analogie, ein Beispiel, das hinkt immer ein bisschen, aber es hat doch etwas Illustratives. Denken sie an die Nukleartechnologie: Der Mensch hat nuklear technologisch geforscht, er hat die Atombombe gebaut, er hat sie abgeworfen, und dann hat er sich darauf geeinigt, international eine Atomenergiebehörde zu schaffen, die überwacht, wie Nukleartechnologie genutzt werden darf und wie nicht. Er hat sich also selbst beschränkt, er ist nicht einfach dem technisch Machbaren blind nachgerannt. Das hat natürlich seine Grenzen, ich bin nicht naiv genug, nicht zu sehen, dass es auch geopolitische Implikationen hat. Ich weiß auch, dass es nicht perfekt funktioniert. Aber es hat zumindest Schlimmeres verhindert. Also der Mensch ist fähig dazu, nicht das technisch Machbare einfach zu tun, sondern sich eben in Interaktion mit Technologie zu überlegen, was soll auch ethisch sein und was soll nicht sein. Ganz herzlichen Dank für ihre Aufmerksamkeit, ich freue mich auf das Gespräch, danke.
von dd
https://www.srf.ch/sendungen/arena/wer-hat-angst-vor-5g-3
https://www.unilu.ch/fakultaeten/tf/professuren/theologische-ethik/mitarbeitende/peter-kirchschlaeger/