Richard David Precht: Hat eine KI das Recht, über Leben und Tod zu entscheiden?
Shownotes
Im Gespräch mit Host Ayse Mese analysiert er Künstliche Intelligenz aus einer zutiefst menschlichen Perspektive. Es geht um maschinelles Entscheiden ohne Moral, den Irrglauben an „Ethik by Design“, die Rolle von KI in Bildung und Kriegsführung – und um die zentrale Frage: Wie bleibt der Mensch Mensch in einer Welt, die von Technologie getrieben wird? Precht warnt vor einem Verlust kultureller Fähigkeiten wie Schreiben und Denken, kritisiert die Ökonomisierung politischer Verantwortung – und macht klar: Wer über KI spricht, muss über Macht, Haltung und Menschlichkeit sprechen.
Möchtet ihr mehr von Richard David Precht hören – Hier geht es zum Ticketshop Zwei Tage, über 6.000 Gäste, 250 Speaker:innen, vier Bühnen – das BIG BANG KI Festival 2025 findet am 10. und 11. September in der ehemaligen Münzprägeanstalt „Alte Münze“ in Berlin statt. Es ist Europas größtes KI-Event und der Hotspot für alle, die aktiv die digitale Transformation vorantreiben. Besucher:innen können vor Ort ein KI-Zertifikat erhalten.
Seit 2021 wird das Festival von DUP UNTERNEHMER veranstaltet. Die Medienmarke erreicht insgesamt 3,5 Millionen Menschen über Online, Mobile, Print und Social Media.
Verpasse nichts mehr: LinkedIn | https://www.instagram.com/dup_unternehmer/ Mehr über DUP UNTERNEHMER: https://www.dup-magazin.de/
Transkript anzeigen
00:00:00: Das ohnehin nicht. Es gibt ja eine entsprechende Fortunatung der Europäischen Union, die vor
00:00:06: wenigen Jahren in Kraft getreten ist über die Grenzen künstlicher Intelligenz, wo man
00:00:09: sie einsetzen darf und sie nicht einsetzen darf. Und da ist bereits von Rüstung gar nicht
00:00:13: mit die Rede drin.
00:00:14: Willkommen zu einer neuen Folge des offiziellen Podcasts zum Big Bang KI Festival. Dem Ort
00:00:28: an dem Technologie auf Haltung trifft und künstliche Intelligenz nicht nur gedacht, sondern auch
00:00:32: hinterfragt wird. Heute bei mir Richard David Brecht, Philosoph, Autor, Vordenker und Speaker
00:00:39: auf dem Big Bang KI Festival im September. Mit ihm tauch ich ein in eine der dringendsten
00:00:44: Fragen unserer Zeit. Wie gestalten wir eine Zukunft mit KI, die nicht nur intelligent,
00:00:49: sondern auch menschlich ist? Herzlich willkommen, Herr Brecht.
00:00:52: Hallo, schönen guten Morgen.
00:00:54: Viele kennen Sie als Autor, Philosoph, Talkcast und selbst natürlich auch als Podcast. Wie
00:01:02: würden Sie sich selbst in einem Satz beschreiben, jenseits der öffentlichen Rollen?
00:01:06: Ich würde sagen, ich denke gerne und möglichst gründlich über das Leben nach. Und das Schöne
00:01:14: ist, dass ich daraus meinen Boot erwerben machen kann.
00:01:17: Ja, das stimmt. Das ist ja leider nicht sehr vielen gegeben. Aber Sie haben ja auch sehr,
00:01:23: sehr viele interessante Bücher zu diesem Thema geschrieben. Und ich glaube, das nächste
00:01:28: ist auch schon gerade in Arbeit und kommt im Oktober raus.
00:01:31: Ja, das Buch wird Angststillstand heißen und es wird darum gehen, wie kann es eigentlich
00:01:41: sein, dass in liberalen Demokratien die Meinungsfreiheit schwindet, wenn das doch eigentlich nicht
00:01:47: von der Regierung ausgeht, sondern weil das Mechanismen sind, die in der liberalen Demokratie
00:01:52: selber liegen. Das ist ein spannendes Thema, was im Augenblick sehr, sehr viele Menschen
00:01:56: auch beschäftigt.
00:01:57: Ja, passt ja auch sehr gut in die aktuelle politische Lage. Weltweit muss man ja fast
00:02:02: schon leider sagen. Ja, da bin ich schon mal sehr, sehr gespannt. Herr Brecht, was hat
00:02:08: Sie denn motiviert, bei unserem BigBank.ai-Festival als Speaker aufzutreten und unabhängig von
00:02:13: unserem Festival, wie wichtig sind für Sie Live-Formate in der Kommunikation?
00:02:18: Sehr wichtig. Also es ist ja doch ein Unterschied, ob man in seinem stillen Camerline sitzt
00:02:24: und Bücher schreibt, unter anderem eben drei Bücher über die Digitalisierung, auch über
00:02:28: künstliche Intelligenz. Oder ob man sich mit Menschen direkt austauscht und auch eine
00:02:33: Resonanz auf das bekommt, eine direkt spürbare emotionale Resonanz auf das, was man erzählt.
00:02:38: Es ist ja nicht nur so, dass man selber was erzählt, wovon man denkt, dass die Leute
00:02:42: vielleicht was lernen können, sondern dass man auch selbst immer wieder was dazulernen.
00:02:46: Ja, das stimmt. Und es ist ja wirklich ein sehr interessiertes Publikum vor Ort aus den
00:02:52: unterschiedlichsten Bereichen und sehr, sehr viele, die auch in wichtigen Entscheidungsrollen
00:02:57: stehen. Insofern passt das, glaube ich, ganz gut und zum Thema KI nochmal zurück. Gabs
00:03:04: einem Moment bei Ihnen, in dem Ihnen klar wurde KI verändert jetzt unser Menschenbild
00:03:09: nicht irgendwann, sondern wirklich jetzt ganz aktuell?
00:03:12: Das weiß ich nicht. Also ich beschäftige mich mit dem Thema seit über zehn Jahren und
00:03:18: da gab es jetzt nicht ein ganz großes "Aha-Muhment" in dem Ganzen, sondern es gab immer zwei im
00:03:24: Wettbewerb miteinander stehende Vorstellungen. Die eine Vorstellung ist, dass wir durch künstliche
00:03:28: Intelligenz mehr und mehr wie Maschinen werden und die andere Vorstellung ist, dass genau
00:03:33: das Gegenteil eintritt, dass wir uns vor allen Dingen dessen bewusst werden, was uns von
00:03:38: Maschinen trennt. Denn es ist ja noch gar nicht ausgemacht, was von beiden sich da langfristig
00:03:43: durchsetzt und ich glaube, der Mensch ist sehr beharrungsfähig und beharrungskräftig
00:03:48: in dem, was ihn zu Menschen macht und ich glaube, das wird auch im Zeitalter der künstlichen
00:03:52: Intelligenz so bleiben.
00:03:53: Ja, das hoffen wir alle auch natürlich. Wenn wir mal zum Thema KI und Philosophie kommen,
00:04:00: Sie sagen ja oft, der Mensch ist ein sinnsuchendes Wesen. Kann KI denn diese Sinnsuche bereichern
00:04:06: oder verdrängt sie sie eher?
00:04:08: Ich würde sagen, weder noch. Diese Sinnsuche darf man sich ja nicht so vorstellen, dass
00:04:13: die Menschen sich eingraben oder in ein Lama-Kloster gehen und jetzt nichts anderes machen als an
00:04:18: den Sinn des Lebens denken, sondern der Sinn des Lebens realisiert sich ja im Leben selber.
00:04:23: Es ist also, auf den Sinn des Lebens kommt man nicht durch nachdenken, sondern irgendwann
00:04:27: wird man auf den Totenbett liegen und dann wird man sich fragen, ob das eigene Leben
00:04:31: einen Sinn gehabt hat. Und wir hoffen, dass das alles noch sehr lange dauert und bis
00:04:35: dahin versuchen wir immer so zu leben, versuchen wir immer so zu leben, dass wir denken, wenn
00:04:40: wir das so machen, ist das bestimmt richtig und ist das bestimmt gut. Künstliche Intelligenz
00:04:44: spielt dabei insgesamt eine eher sehr untergeordnete Rolle.
00:04:47: Und wenn wir bei der Philosophie bleiben noch einen Moment, wenn Sie Epikur heute auf
00:04:54: die Bühne stellen würden, was glauben Sie, würde er dem Publikum zum Thema KI sagen
00:04:59: und vor allem noch mal Salopp gefragt, würde er auch ChatGPT nutzen?
00:05:05: Ich denke mal, Epikur würde eher zu Maßheiten auffordern. Er würde sagen, macht euch nicht
00:05:13: abhängig von kleinen Maschinen, die ihr in der Tasche habt. Ich glaube, seine Vorstellung
00:05:18: von Freiheit bestand ja darin, dass man weitgehend bedürfnungslos ist, dass man sie kleinen Freuden
00:05:24: des Lebens intensiv genießt, aber nicht nach allzu großen Freuden des Lebens giert. Ich
00:05:29: denke, Epikur wäre jetzt nicht so der Philosoph der künstlichen Intelligenz.
00:05:33: Spannend, vielleicht ist die KI irgendwann soweit, dass man die mit allen, was wir von
00:05:40: Epikur haben, speisen kann und dann die Frage quasi im Selbststellen kann. Es gibt ja so
00:05:45: Systeme, die sind schon in der Richtung unterwegs.
00:05:48: Ja, ich glaube, es wäre keine Antwort dabei raus, über die sich die KI-Entwickler so
00:05:54: wahnsinnig freuen würden.
00:05:55: Wahrscheinlich. Und was fehlt Ihnen denn als Philosoph in der aktuellen KI-Debatte,
00:06:03: insbesondere auf Konferenzen oder in der Politik oder so ganz im Allgemeinen? Wir sprechen
00:06:07: ja alle immer sehr, sehr viel zum Thema, aber nicht umfassend?
00:06:10: Na ja, gut, es gibt ja seit vielen Jahren die Diskussion, was darf KI, was darf KI nicht?
00:06:17: Die Frage wird eigentlich irgendwie seit vielen Jahren immer genau gleichgestellt und sie
00:06:21: wird auch immer gleich beantwortet, aber es passiert so wenig. Also die Formel, auf die
00:06:28: man sich einigen kann, ist, dass künstliche Intelligenz nicht über Lebensschicksale
00:06:31: entscheiden darf.
00:06:32: Und das steht auch in sehr vielen Texten, die so von Ethik-Kommissionen oder Selbstverpflichtungen
00:06:37: von Programmierern entwickelt worden sind.
00:06:39: Aber im Augenblick tun wir uns ein bisschen schwer damit, diese Grenze tatsächlich einzuhalten.
00:06:43: Ah, wissen wir manchmal gar nicht, wo sie langläuft. Was ist eine wichtige Lebensentscheidung,
00:06:48: was ist keine?
00:06:49: Und zum Zweiten haben wir jetzt gerade einen Bereich, wo wir früher mal gesagt haben, da
00:06:53: dürfen wir niemals KI einsetzen, wo wir jetzt alles sagen, da müssen wir jetzt ganz viel
00:06:57: KI einsetzen und das ist bei Rüstung und Waffen.
00:06:59: Das war ganz lange ein Logo, wo wir gesagt haben, keine Killerroboter, künstliche Intelligenz
00:07:05: darf keine Menschen abschießen oder Befehle dazu erteilen.
00:07:08: Und im Augenblick heißt es, wir müssen ganz, ganz stark aufrüsten in Deutschland und vor
00:07:12: allen Dingen in KI investieren im militärischen Bereich.
00:07:15: Ja, das stimmt. Das heißt, das wäre eine rote Linie, die man nicht überschreiten dürfte.
00:07:20: Es war klassischerweise eine rote Linie und im Augenblick sagt die Bundesregierung ganz
00:07:25: eindeutig, wer da nicht mithält, der ist der große Verlierer und wir müssen diese Grenze
00:07:30: überschreiten.
00:07:31: Sie wird gar nicht mehr als Grenze gesehen.
00:07:33: Ja, das ist auch so ein bisschen im internationalen Kontext natürlich zu sehen.
00:07:37: Natürlich.
00:07:38: Ja, alle anderen sozusagen das machen, dann muss man das nicht mehr.
00:07:41: Das ist ja auch ein großer Rüstungswettlauf und dann sagen wir, wenn wir daran nicht
00:07:46: beteiligt sind, dann haben wir ganz, ganz große Nachteile.
00:07:49: Da sieht man mal, was so ethische Diskussionen wert sind, solange sie nicht auf dem Prüfstand
00:07:53: gestellt werden.
00:07:54: Ja, genau. Und dass es auch immer viel im internationalen Kontext stattfindet, dass
00:07:59: man in Deutschland alleine jetzt keine Entscheidungen darüber treffen kann.
00:08:02: Das ohnehin nicht.
00:08:03: Das ohnehin nicht.
00:08:04: Es gibt ja eine entsprechende Forderung der Europäischen Union, die vor wenigen Jahren
00:08:09: Kraft getreten ist über die Grenzen künstlicher Intelligenz, wo man sie einsetzen darf und
00:08:13: sie nicht einsetzen darf.
00:08:14: Und da ist bereits von Rüstung gar nicht mehr die Rede drin.
00:08:17: Das heißt, das Thema ist gänzlich aus dem AI-Act der Europäischen Union rausgenommen.
00:08:22: Ja, wir werden sehen, wie sich das in der Zukunft auf Kriege auswirkt, ob dadurch mehr oder
00:08:31: weniger Menschen sterben.
00:08:32: Ja, ist eine spannende Frage übrigens.
00:08:34: Ja.
00:08:35: Ich erinnere mich, dass Stuart Russell, einer der großen Äpste der KI, vor einigen Jahren
00:08:41: gesagt ist, es ist doch toll, wenn es Killer-Roboter gibt, dann werden sich irgendwann nur noch
00:08:44: Killer-Roboter untereinander bekämpfen, dann müssen keine Menschen mehr sterben.
00:08:47: Ich halte das mit einer etwas naive Sicht, weil ich glaube, darauf läuft es am Ende nicht
00:08:51: hinaus.
00:08:52: Wahrscheinlich nicht.
00:08:53: Die spannende Frage ist, wenn künstliche Intelligenz militärische Entscheidungen trifft,
00:08:56: also zum Beispiel darüber befindet, ob irgendwo jemand mit einer Drohne getötet wird oder nicht
00:09:01: getötet wird.
00:09:02: Ja.
00:09:03: Dann werden natürlich Fehler auftauchen, was ja ganz normal ist, dass in solchen Situationen
00:09:07: Fehler auftauchen und dann stellt sich die Frage, wer wird verantwortlich sein.
00:09:10: Man hat auch immer so eine beliebte Frage bei künstlicher Intelligenz, wenn was nicht
00:09:14: funktioniert, wer ist am Ende der Verantwortliche?
00:09:17: Ja.
00:09:18: Ja, und das ist nicht so einfach zu sagen, die Firma, die die KI hergestellt hat, oder
00:09:23: dann doch irgendwelche Militärs, die dafür verantwortlich sind und so weiter.
00:09:27: Also da kommen noch eine Menge denkerische Arbeiter auf uns zu und vor allen Dingen auch Arbeit
00:09:31: für Juristen.
00:09:32: Das denke ich auch, wobei man ja sagt, dass die Arbeit von Juristen am meisten von KI
00:09:38: betroffen wird, weil das eben sehr standardisierte Texte pro Zettel ist.
00:09:42: Auf den unteren Ebenen, also auf der Stufe der Associates sicherlich.
00:09:47: Also die ganze juristische Zudieverarbeit, die kann nun wirklich tatsächlich von KI
00:09:52: übernommen werden.
00:09:53: Ich meine, das ist ja das Schöne einer künstlichen Intelligenz, die ersetzt in der ersten Linie,
00:09:56: die jeden Jobs, um die es, sagen wir mal, menschheitsgeschichtlich gesehen nicht schade
00:10:00: ist.
00:10:01: Also es ist natürlich immer schade, wenn jemand seinen Job verliert.
00:10:04: Aber wir finden es heute gut, dass wir in Deutschland nicht mehr so harte Arbeit machen
00:10:08: müssen, wie wir das früher gemacht haben.
00:10:10: Die Arbeit der Bauern war hart und brutal, die Arbeit in der Stahlindustrie war hart und
00:10:13: brutal, unter Tage zu arbeiten war hart und brutal.
00:10:16: So und aufgrund des technischen Fortschritts müssen wir das heute alles nicht mehr machen.
00:10:20: Und wenn wir irgendwann mal keine langweilige, geistige Routine Arbeit mehr machen müssen,
00:10:23: dann ist das eine sehr, sehr positive Aussicht.
00:10:26: Wir müssen uns nur überlegen, was die Menschen, die das bisher gemacht haben, dann in Zukunft
00:10:30: tun.
00:10:31: Ja, das stimmt.
00:10:32: Also wir sind hier im Medienhaus auch schon so ein bisschen in der Transf- also was heißt
00:10:36: bisschen schon länger in der Transformationsphase.
00:10:38: Und wir haben jetzt unter den Kollegen, Kolleginnen festgestellt, dass es doch sehr angenehm ist,
00:10:43: je mehr KI wir nutzen, weil wir eben die konzeptionellen strategischen Arbeiten jetzt alle mehr machen
00:10:48: und, sagen wir mal, die ganzen Rechercheaufgaben, um die sich hier auch keiner so besonders
00:10:52: gerissen hat, die sind ja jetzt vollautomatisiert durchführbar und man hat sozusagen die Informationsgrundlage
00:11:00: für neue Strategien.
00:11:01: Das schaffen die Systeme ja zum Glück noch nicht.
00:11:03: Dafür werden wir hier noch gebraucht und das funktioniert in der Kombination aber sehr,
00:11:08: sehr gut, weil wir jetzt die Kolleginnen im Team auch sehr viel mehr kreativere Arbeit
00:11:14: machen können.
00:11:15: Ja, ja, das ist quasi die positive Vision, dass wir sagen, künstliche Intelligenz befreit
00:11:20: uns von allerstupiden, langweiligen Routinearbeit.
00:11:24: Wir können uns dann auf die Dinge konzentrieren, die wirklich Spaß machen.
00:11:28: Das wird in einigen Bereichen tatsächlich so sein.
00:11:31: In anderen Bereichen wird es sicherlich große Veränderungen geben.
00:11:35: Also ich habe natürlich viel darüber nachgedacht, was ist für den Sinn des Einsatzes von künstlicher
00:11:39: Intelligenz in den Künsten.
00:11:40: Ich bin ja auch Professor an der Musikhochschule und da diskutieren wir dann mit den Studenten
00:11:45: natürlich auch die Frage, wie gut wird künstliche Intelligenz mal das machen, was sie als Komponisten
00:11:51: jetzt gegenwärtig machen und die müssen schon damit rechnen, dass das in 20 oder 30 Jahren
00:11:55: durch KI mindestens genauso gut geht.
00:11:57: Die Frage wird aber dann sein, wird das Publikum Spaß daran haben, eine Musik, die von künstlicher
00:12:04: Intelligenz erfunden ist, im Zweifelsfall auch vielleicht aufgeführt wird, sich wirklich
00:12:10: anzugucken und da könnte man oder anzuhören und da könnte man vermuten, dass das nicht
00:12:15: so ist.
00:12:16: Ja, ich glaube, es wird genauso die Stars der Musik geben, und zwar egal, ob die jetzt
00:12:21: neue Musik machen oder Popmusik oder Rockmusik, daran wird sich nicht wesentlich was ändern,
00:12:26: weil KI unterstützt natürlich den Kompositionsprozess gerade bei populärer Musik, ganz massiv,
00:12:31: das tut sie auch jetzt schon.
00:12:32: Ja, das wird spannend zu sehen sein, aber ich kann mir nicht vorstellen, dass man auf der
00:12:37: Bühne das so genau mit der gleichen enthousiastischen Stimmung verfolgt, wenn humanoider Roboter
00:12:45: singen wie ...
00:12:46: Nein, das wird uns langweilen.
00:12:48: Das gucken wir uns einmal an und dann sehen wir, dass es geht.
00:12:51: Und dann werden wir denn nie wieder hingehen.
00:12:53: Also ein großer Sinn von Musikerlebnissen ist eben auch, dass man in eine imaginäre
00:12:58: Interaktion mit denjenigen Trittdienern auf der Bühne sind.
00:13:01: Und ich finde, ich sage, dass es gänzlich unmöglich ist, so ein Verhältnis zu humanoiden
00:13:06: Robotern aufzubauen, aber dauerhaft wird das keine befriedigende Veranstaltung sein.
00:13:10: Ja, zum Glück.
00:13:12: Muss man ja aus Sicht der von uns Menschen sagt wahrscheinlich auch ...
00:13:17: Ja, wir werden uns nicht abschaffen, also durch künstliche Intelligenz.
00:13:20: Also jeder, der das sagt, es gibt ja in den einen oder anderen Huru oder Prophet, der das
00:13:24: behauptet.
00:13:25: Ich glaube nicht, dass das so kommt.
00:13:27: Ja, ich hoffe, dass es auch eher in der Lösung von Problemen unterstützt, als dass es uns
00:13:34: noch mehr Probleme bereitet.
00:13:35: Ja, das wäre jedenfalls eine Sackgasse der Evolution, wenn wir durch künstliche Intelligenz
00:13:39: mehr Probleme schaffen würden, als wir lösen.
00:13:41: Ich glaube nicht, dass das der Fall ist.
00:13:43: Ich bin da eher optimistisch.
00:13:45: Also das teile ich mit Ihnen.
00:13:48: Ich würde noch einmal ganz kurz zum Thema Ethik und KI kommen wollen.
00:13:52: Was halten Sie von Konzepten wie Ethik by Design?
00:13:55: Reichen Sie aus oder brauchen wir mehr als diese Labels für technologische Systeme?
00:14:00: Wir haben da ja eben schon mal kurz in Bezug auf Rüstung dazu gesprochen.
00:14:03: Ja, letztlich fallen die ganz großen Entscheidungen dazu in der Politik.
00:14:07: Das spielt natürlich eine ganz große Rolle.
00:14:10: Und wir sehen ja, dass in der Politik grundsätzliche Dinge sich sehr, sehr schnell verändern können.
00:14:15: Also Deutschland war ein Land, das in den letzten Jahrzehnten eigentlich immer pazifistischer
00:14:20: geworden ist und auch immer mehr den Gedanken hatte, dass man mit Hilfe von Kriegen und
00:14:25: Rüstung und so weiter, dass das in der Zukunft zumindest in Europa keine Rolle mehr spielen
00:14:29: würde.
00:14:30: Sind wir in einer veränderten, welthistorischen Situation?
00:14:32: Wir haben den russischen Angriffskrieg auf die Ukraine erlebt.
00:14:35: Wir erleben eine große Unsicherheit der NATO seit die USA nicht mehr sicher Partner
00:14:42: in der NATO sind.
00:14:43: Da sind wir im Augenblick massiv irritiert.
00:14:46: Und solche politischen Dinge, die entscheiden dann ganz am Ende dann doch darüber, wie und
00:14:50: wo in ethisch und moralischer Hinsicht künstliche Intelligenz eingesetzt wird.
00:14:55: Und das machen nicht irgendwelche Kommissionen und das machen im Zweifelsfall auch nicht
00:14:58: die Programmierer.
00:14:59: Das wird wahrscheinlich schwierig sein, sich auch auf eine Richtlinie oder überhaupt einen
00:15:06: Konsens zu finden, weil es ja einfach insgesamt so wenig Konsens aktuell gibt.
00:15:10: Ja, also wir hatten relativ lange einen ganz guten Konsens.
00:15:16: Der AI-Akt der Europäischen Union ist ein sehr schönes Beispiel für einen Konsens, wo
00:15:21: man gesagt hat, also hier sind die Gänzen und da sind die Möglichkeiten und das darf
00:15:24: KI und das darf sie nicht.
00:15:26: Aber eben, dieses Papier ist dann manchmal nicht mehr ganz so viel wert, wenn sich große
00:15:32: politische Koordinaten verändern.
00:15:33: Und letztlich wird es auf der politischen Ebene entschieden.
00:15:36: Wir sprechen ja auch viel mit KI-Unternehmen und KI-Start-Ups in dem Bereich und häufig
00:15:44: hören wir dann auch natürlich so Dinge wie, gut, das können wir in Deutschland nicht
00:15:47: machen, deshalb gehen wir in die USA oder in Asiatischen Raum, weil wir da viel freier
00:15:53: in der Entwicklung sind.
00:15:54: Es ist halt immer schwierig sozusagen auf europäischer Ebene, es ist ja schon gut, dass
00:15:59: wir da unter uns Europäern einen guten Konsens haben, aber sie sind ja trotzdem nicht limitiert,
00:16:05: wenn jemand so ein System bauen will, dann baut er das eben in den USA oder China oder
00:16:10: wo auch immer.
00:16:11: Das ist grundsätzlich immer so.
00:16:13: Das ist ja auch, ich meine, wenn man ein krasses Beispiel neben jemand sagt, wir haben in
00:16:17: der Europäischen Union keine Kinderarbeit, aber es gibt Kinderarbeit natürlich in vielen
00:16:21: Ländern des globalen Südens und es gibt auch hinreichend Firmen, die so produzieren, dass
00:16:25: Kinderarbeiter bei einer große Rolle spielen.
00:16:27: Ob da jetzt Sportartikel in Pakistan hergestellt werden oder ein Tuchfabrik, Kastronen in
00:16:32: Bangladesh und so weiter und so weiter.
00:16:34: Also das ist ja kein spezielles Phänomen von KI, aber das kann ja im Umkehrschluss nicht
00:16:39: heißen, dass wir keine entsprechenden Regeln machen, weil dann wird es bedeuten, dass
00:16:43: wir uns moralisch auf den genau gleichen Status begeben wie die Länder, auf die wir zeigen
00:16:48: und sagen, die sind moralisch da nicht auf dem Stand, auf dem wir sind.
00:16:51: Ja, das stimmt.
00:16:54: Wenn wir nochmal auf die KI, die gesellschaftliche Weltordnung, gehen, welche gesellschaftlichen
00:17:02: Veränderungen durch KI halten Sie denn aktuell für am stärksten unterschätzt?
00:17:06: Das hat man noch so gar nicht im Blick.
00:17:08: Dass die heranwachsenden Generationen nicht mehr schreiben lernen.
00:17:13: Ich meine, schreiben ist eine alte Kulturtechnik, einige tausend Jahre alt und für die Evolution
00:17:21: und den kulturellen Fortschritt der Menschheit spielte schreiben können eine unglaublich
00:17:26: große Rolle.
00:17:27: Und in Zukunft wird es immer schwieriger sein, jungen Menschen klar zu machen, wieso
00:17:31: sie schreiben lernen müssen oder gut schreiben lernen müssen, wenn das ja sowieso alles von
00:17:37: künstlichen Systemen auf gleichem Niveau vielleicht zukünftig besser erledigt werden
00:17:41: kann.
00:17:42: Das macht eine ganze Menge mit uns.
00:17:43: Eine durch den Taschenrechner brauchten die Leute nicht mehr rechnen können.
00:17:48: Die Kopfrechenfindigkeit, die junger Menschen sind erschreckend im Vergleich zu früheren
00:17:52: Zeiten.
00:17:53: Das hat über die letzten drei Generationen stark abgenommen.
00:17:55: Aber ich glaube, es ist noch viel dramatischer, denn wenn die Schreibfähigkeiten entsprechend
00:18:00: immer geringer werden.
00:18:01: Das stimmt.
00:18:02: Ich habe eine Tochter, die ist zwölf und ich sehe da, die sind noch ziemlich gut
00:18:08: unterwegs, weil die verschiedene Schriftarten noch lernen und vor allem sehr viele Hausaufgaben
00:18:13: noch tatsächlich handschriftlich anfertigen müssen.
00:18:15: Noch gibt es das.
00:18:18: Die Frage ist, wie lange werden die Schulen in ihrem Kampf, die Schulen sind ja dafür,
00:18:23: dass man diese Techniken weiter erlernt, besteheln können und wann wird der Punkt erreicht sein.
00:18:29: Ich finde, dass man gar nicht mehr schreiben lernt.
00:18:32: Aber ich glaube, dass die schriftlichen Ausdrucksmöglichkeiten heutiger 20-Jähriger, die einen Gynasium
00:18:39: besucht haben, deutlich schlechter sind, als das vor 20 oder 30 Jahren der Fall war.
00:18:43: Und da war es schon ein bisschen schlechter als 20, 30 Jahre davor.
00:18:46: Das ist schon eine absteigende Entwicklung.
00:18:48: Abgesehen davon, dass sie alle keine Rechtschreibungen mehr können und keine Zeichensetzung, weil
00:18:53: sie das nicht mehr brauchen.
00:18:54: Ja, also gelehrt wird es ja aktuell noch, aber das stimmt.
00:18:59: Das Abwächt habe ich auch.
00:19:01: Ich habe ja an der Uni lange Klausuren korrigiert und ich kann nur sagen, die durchschnittlichen
00:19:06: Zeichensetzungsfähigkeiten von jemandem, der heute Abitur macht, die sind wirklich lausig
00:19:10: im Vergleich zu früheren Zeiten.
00:19:11: Ich will dann hier rüber nicht schimpfen.
00:19:14: Ich bin ja kein Mäckerumkel, aber da hat sich eine Menge entwickelt und nicht zum Wässern.
00:19:18: Das stimmt.
00:19:23: Da wird wahrscheinlich auch die KI nicht besonders viel helfen können, dass man das von sich
00:19:25: aus kennt und anwenden kann.
00:19:28: Im Gegenteil, da man das ja an die KI delegieren kann, muss man das selber nicht mehr lernen.
00:19:32: [Werden]
00:19:33: Das Kindesjahr ist sehr auf Effizienz getrimmt.
00:19:36: Und alles das, was man einfach erledigen kann, ohne sich anstrengend zu müssen,
00:19:40: das wird im Regelfall dann eben auch einfach erledigt.
00:19:42: Und das macht die KI für uns.
00:19:44: Ja, das stimmt.
00:19:47: Also die Kinder nutzen das natürlich auch sehr, sehr gerne.
00:19:49: Das ist einfacher, im Alltag für die mit KI-Dinge zu erledigen.
00:19:54: Das lernen die jetzt schon von Anfang an.
00:19:56: Ja, und da hat sich eine Menge geändert.
00:19:58: Also ich weiß, dass es am Anfang hieß,
00:20:00: ChatGPT dürfe keinen Einzug in die Schulen halten und auch nicht in die Universitäten.
00:20:05: Und jetzt ist das Gegenteil der Fall.
00:20:06: Versuchen Sie mal eine Pro-Seminararbeit zu finden, die nicht von ChatGPT mitgemacht ist.
00:20:12: Ja, früher war es so, man musste unterzeichnen, dass kein ChatGPT eingesetzt wird.
00:20:16: Jetzt muss man unterzeichnen, dass man ChatGPT eingesetzt hat.
00:20:20: Sozusagen einfach, um das auszuweisen und transparent zu machen.
00:20:24: Und irgendwann ist die beste Pro-Seminararbeit,
00:20:27: die von demjenigen, der am besten mit ChatGPT umgehen konnte.
00:20:31: Das ist natürlich eine Veränderung gegenüber früheren Zeiten.
00:20:34: Ja, unheimlich stark sogar.
00:20:36: Wenn ich mir überlege, meine Hausarbeiten,
00:20:37: da musste ich noch gucken, dass die Fußnoten die richtige Zitierweise bei ihnen halten.
00:20:42: Zum Beispiel.
00:20:43: Und ich meine, es ist auf der einen Seite auch eine Erleichterung.
00:20:47: Also ich bin so die Sandwich-Generation,
00:20:49: ich habe meine Magisterarbeit auf der Schreibmaschine geschrieben
00:20:52: und meine Doktorarbeit auf dem Computer geschrieben.
00:20:55: Allerdings noch mit dem Computerprogramm,
00:20:56: mit dem man nicht in der Art und Weise arbeiten konnte,
00:20:59: wie das heute der Fall ist.
00:21:00: Da der Computer noch eine bessere Schreibmaschine war.
00:21:03: Und da kann man sagen, es ist ja großartig.
00:21:04: Ich schreibe heute meine Bücher natürlich zwar ohne ChatGPT,
00:21:07: weil ich das für meine Art zur Arbeit nicht brauche.
00:21:10: Aber es ist natürlich großartig, wie schnell ich überall in der Welt recherchieren kann.
00:21:13: Früher musste man in Leibbibliotheken gehen und so.
00:21:16: Also ich will mal ganz deutlich machen,
00:21:17: das ist ein wahnsinniger Fortschritt,
00:21:19: dass ich jedes Jahr ein Buch schreiben kann, ist nur möglich,
00:21:23: weil es das Internet gibt und weil ich auf dem Computer arbeite.
00:21:26: Das wäre mit einer Schreibmaschine und mit Bibliotheken und Fernleihen und so weiter,
00:21:30: würde das ganze viermal länger dauern.
00:21:32: Das ist ja einfach eine wahnsinnig positive Entwicklung.
00:21:35: Nur gehöre ich eine Generation an, die das Handwerk noch vernünftig gelernt hat.
00:21:39: Und es wird halt für die Lehrer immer schwieriger,
00:21:41: den Kindern zu sagen, warum sie ein Handwerk lernen müssen,
00:21:44: was die Technik für sie sehr gut erledigen kann.
00:21:47: Wir werden sehen, wohin sich das dann noch entwickelt.
00:21:51: Ich würde gerne nochmal ein bisschen übergeordneter gehen.
00:21:55: Und zwar, Sie sprechen ja oft von kapitalistischer Diplomatie.
00:21:59: Was bedeutet das für den Umgang mit KI auf internationaler Ebene?
00:22:04: Brauchen wir eine neue Form von digitaler, wertebasierter Weltordnung jetzt?
00:22:08: Ja, also der Gedanke einer wertebasierten Weltordnung ist ja vom Tisch.
00:22:13: Das muss man ganz mal ehrlich sein.
00:22:16: Also diese Vorstellung, die wir so hatten nach dem Zusammenbruch des Kommunismus.
00:22:21: Also '89, '91, als jetzt liberale Demokratien,
00:22:25: wertebasierte liberale Demokratien sich weltweit ausbreiten würden.
00:22:29: Und das nur eine Frage der Zeit ist, bis die ganze Welt aus liberalen Demokratien besteht.
00:22:33: Daran glauben wir nicht mehr.
00:22:35: Und da gibt es der eine Grund ist, weil die im Augenblick
00:22:38: wirtschaftlich erfolgreichsten Staaten der Welt keine liberalen Demokratien sind.
00:22:41: In erster Linie China und Indien ist eigentlich auch noch eine Papdemokratie.
00:22:46: Ja, und wir sehen, dass der Trend in die umgekehrte Richtung geht.
00:22:50: Die liberalen Demokratien, dort werden rechtspopulistische Parteien stark im Elb-Fürchten
00:22:54: darum, dass es sie vielleicht in einigen Jahrzehnten, vielleicht schon in zehn Jahren, nicht mehr geben könnte.
00:22:58: Also der Trend geht gerade genau in die umgekehrte Richtung.
00:23:02: Und das andere ist deswegen, sprich von kapitalistischer Demokratie.
00:23:06: Wir leben ja in sehr kapitalistischen Ländern.
00:23:09: Das fällt aber ein bisschen auf, wenn man so in die Geschichte zurückgeht,
00:23:12: wie unsere Eltern, unsere Großeltern sozialisiert waren.
00:23:15: Heute sind wir Cherrypicker, wir trimmen alles auf Effizienz.
00:23:19: Wir versuchen, optimalst möglich zu leben.
00:23:22: Ja, das war für mich, war das ja nicht so.
00:23:24: Also meine Großeltern haben ja nicht versucht, optimalst möglich zu leben.
00:23:27: Die hatten auch nicht die Möglichkeit dazu.
00:23:29: Ja, heute sind wir durch und durch quasi Kapitalisten unserer selbst.
00:23:32: Und die ganze Welt ist kapitalistisch.
00:23:34: Auch China ist ein kapitalistisches Land.
00:23:36: Die muslimischen Länder sind kapitalistische Länder.
00:23:39: Und da ist es eine ziemlich logische Entwicklung,
00:23:41: dass irgendwann im Mutterland des Kapitalismus, also in den USA,
00:23:44: jemand Präsident wird, der Politik als Kapitalismus begreift.
00:23:49: Also im Grunde genommen die USA führen wir eine Firma.
00:23:53: Ja, dann lassen wir das mal weg mit den Ideologien und den Weltanschauungen und den Werten.
00:23:57: Ja, das alles ist sozusagen nur noch geschwätz.
00:23:59: Sondern wir versuchen so effizient wie möglich unsere Wirtschaft anzukurbeln
00:24:02: und das Maximum davon zu haben.
00:24:05: Und ich glaube, dass das kein Unfall der Geschichte ist,
00:24:09: sondern ich glaube, dass das ein Trend ist.
00:24:10: Ich glaube eher, dass viele Länder, die jetzt noch viel von Werten reden,
00:24:15: irgendwann auch so sein könnten wie die USA unter Donald Trump.
00:24:19: Das ist so im Augenblick die gegenwärtige Entwicklung.
00:24:21: Das heißt, wir erleben den ganz großen Rückzug der Werte
00:24:24: und auch der Weltanschauungen aus der Politik.
00:24:27: Und nicht im Augenblick, im Augenblick versuchen wir Europäer zu sagen,
00:24:30: ja, ja, aber wir sind doch die Werte basierten und hier und die Guten und so.
00:24:34: Ich glaube, dass wir in einigen Jahren keine große Rolle mehr spielen.
00:24:37: Es geht in eine sehr technokratisch-kapitalistische Richtung,
00:24:41: die der Augenblickliche trennt.
00:24:42: Da gibt es vielleicht auch irgendwann einen Gegentrenn zu.
00:24:44: Aber ich glaube, das ist erstmal die mittelfristige Zukunft, von der wir stehen.
00:24:48: Das weiß dieser Analyse, als ich von kapitalistischer Diplomatie sprechen.
00:24:52: Nach dem Motto "Nimm du dir die Ostukraine, ich hol mir dafür Grönland".
00:24:56: Ja.
00:24:58: Gibt es, was würden Sie sagen, hat USA unter Donald Trump?
00:25:04: Ich meine, er ist natürlich die Spitze,
00:25:05: aber er macht das ja alles nicht alleine, auch wenn das hier immer so erscheint.
00:25:09: Was für Werte stecken hinter dem System Trump?
00:25:13: Geldwerte?
00:25:14: Geldwerte.
00:25:16: Geldwerte.
00:25:17: Das sind die einzigen Werte, die vor denen Donald Trump Respekt hat.
00:25:20: Na, und Geld ist die einzige Sache, deren Qualität sich allein an der Quantität bemisst.
00:25:26: Da braucht es keine weiteren Werte.
00:25:28: Es gibt viel Geld, ist gut, wenig Geld, ist schlecht.
00:25:30: Das ist eine sehr einfache Gleichung.
00:25:32: Und die Logik dahinter ist, was hilft, wenn Geld nicht hilft?
00:25:36: Mehr Geld.
00:25:38: Es gibt sozusagen nur noch einen Maßstab, um die ganzen Dinge zu sehen.
00:25:43: Ja. Und die Verteilung von dem Geld innerhalb
00:25:47: so einer Gesellschaft wie die Vereinigten Staaten, das spielt dann keine Rolle mehr,
00:25:51: wenn in der Summe sozusagen einfach mehr Geld da ist?
00:25:54: Loris spielt natürlich schon eine große Rolle.
00:25:57: Die USA haben Probleme, die sie nicht lösen können und die Politik mit
00:26:00: Trump, mit seiner gegenwärtigen Politik auch nicht lösen kann.
00:26:03: Und das ist das gleiche Problem, was wir Europäer im Prinzip auch haben.
00:26:07: Wir produzieren zu teuer.
00:26:08: Ja.
00:26:10: Und es ist ja sehr lustig, wenn Donald Trump sagt, wir holen uns die Jobs zurück,
00:26:15: die nach China gegangen sind, weil das sind die Jobs, die in USA keiner mehr machen will.
00:26:18: Aber sie sind sehr stupide und weil sie unglaublich schlecht bezahlt sind.
00:26:23: Diese Entwicklung kann man nicht zurückdrehen.
00:26:27: Man kann also einfache Industriearbeit nicht zurückholen.
00:26:30: Das Einzige, was man machen kann, ist eben eine entsprechende Technisierung.
00:26:33: Und das ist eigentlich die spannende Übergangsphase, in der wir im Augenblick sind.
00:26:37: Rein theoretisch kann man durch Roboterisierung in der Fertigung
00:26:40: im Wettbewerbsvorteil natürlich erzielen gegenüber den Ländern, die nicht so stark
00:26:45: robotarisiert sind.
00:26:46: Also was was im Augenblick durch Kinderarbeit oder durch Ausbeutung in den
00:26:52: Ländern des globalen Südens produziert wird, können wir inzwischen im Prinzip
00:26:56: bei uns günstiger machen, in dem wir Roboter arbeiten lassen, weil das sind
00:27:01: die aller günstigsten Arbeitskräfte.
00:27:02: Die Betonung liegt aber auf Prinzip, weil der Weg dahin, quasi die Menschenlehre
00:27:07: zur Menschenlehrenfabrik, der dauert sehr viel länger, als wir ursprünglich gedacht haben.
00:27:12: Und jetzt sind wir genau in der Übergangsphase.
00:27:14: Wir werden irgendwann 10, 15, 20 Jahren zum Teil fast menschenlehre Fabriken haben,
00:27:19: in denen wir sehr, sehr günstig produzieren können.
00:27:22: Aber bis dahin werden Länder wie China oder wie Indien sehr viel günstiger
00:27:27: produzieren als wir.
00:27:28: Und das schafft in den USA und künftig auch in Europa ziemlich große soziale Probleme.
00:27:33: Ja, soziale Probleme, die neuen Technologien, unsichere politischen Lagen.
00:27:41: Es gibt ja sehr, sehr viele Gründe, warum man sozusagen unsicher in die
00:27:45: Zukunft blicken könnte.
00:27:47: So gibt es natürlich auch vielen von unseren Besuchern auf dem Festival.
00:27:51: Da kommen ja auch Menschen mit Unsicherheiten zum Festival, was das Thema
00:27:54: künstliche Intelligenz vor allem betrifft, aufgrund der ganzen Themen, die wir eben
00:27:58: auch schon mal angeschnitten haben.
00:28:00: Was sagen Sie denen, die Angst vor KI und technologischen Kontrollverlust haben?
00:28:05: Also erst mal hat der technische Wandel über die letzten 200 Jahren also so
00:28:11: richtig Fahrt aufgenommen hat.
00:28:12: Unsere Lebensbedingungen sehr, sehr viel komfortabler gemacht und angenehmer.
00:28:16: Ich glaube, dass niemand, der auf dem Festival rumläuft, gerne vor 100 oder
00:28:19: vor 200 Jahren gelebt hätte, vielleicht als König, was sie allerwenigst gemacht
00:28:24: haben. Aber das Leben der normalen Menschen, das Leben der normalen Menschen
00:28:27: hat sich durch die technische Entwicklung enorm verbessert.
00:28:30: Und das sollten wir anerkennen.
00:28:32: Und dann sollten wir unterscheiden zwischen den realistischen und den
00:28:36: weniger realistischen Gefahren.
00:28:37: Ich sage immer, wenn man in einem einsamen Haus im Wald wohnt, dann ist es
00:28:43: besser, sich vor Einbrechern zu fürchten als vor Geistern.
00:28:47: Und ich finde, wir müssen bei der KI Diskussion die Einbrecher mal sorgfältig
00:28:51: von den Geistern trennen.
00:28:53: Viele Leute haben Angst davor, dass irgendwann die Maschinen sich gegen uns
00:28:57: wenden. Das ist quasi das Muster, die wir aus Hollywood filmen kennen,
00:29:02: so Terminale von Fantasien und so.
00:29:03: Das ist totaler Blödsinn von vorne bis hinten.
00:29:07: Da fürchte ich mich überhaupt nicht vor.
00:29:09: Ich weiß, es gibt intelligente Menschen, die sich davor fürchten.
00:29:14: Erteckmark fürchtet sich davor, Nick Bosschrom fürchtet sich davor.
00:29:17: Also renommierte KI-Leute, wo ich immer denke,
00:29:21: "Hommer geht mal in Ruhe mit mir ein Bier trinken und ein paar Stunden
00:29:23: und dann nehme ich euch mal diese Angst, die euch da so dermaßen beschöchten."
00:29:27: Weil es gibt ganz, ganz viele Gründe, warum das mit an sehr Sicherheit
00:29:32: grenzen der Wahrscheinlichkeit nicht passieren wird.
00:29:34: Aber andere Gefahren gibt es natürlich, Börsen, Abstürze, die passieren können.
00:29:39: Also nicht, dass das an die böse KI glaube ich überhaupt nicht.
00:29:43: Aber ich könnte mir vorstellen, dass sich eben Prozesse so weit
00:29:46: verselbstständigen, dass es zu viel Funktionen kommt, die wir nicht
00:29:49: mehr rechtzeitig erkennen und gegen die wir nicht rechtzeitig arbeiten können.
00:29:52: Und dieser ganze Bereich, also quasi versuchen, so eine echte Sicherheit
00:29:58: zu bekommen in komplexen KI-Systemen, das ist eine riesige, schwierige Aufgabe,
00:30:02: die wir meistern müssen.
00:30:03: Aber ich halte es für denkbar, dass wir die meistern und vor der
00:30:07: bösen Terminator-KI fürchte ich mich überhaupt nicht.
00:30:11: Das ist gut zu hören, weil sie sich ja auch viel mit dem Thema beschäftigt haben
00:30:15: und auch beschäftigen.
00:30:16: Ja, wo soll der böse Wille herkommen bei der KI ist die Frage.
00:30:19: Ja, also Menschen sind zum bösen Willen in der Lage, warum?
00:30:22: Weil wir Körper haben. Wir haben körperliche Bedürfnisse,
00:30:26: sie sind körperliche Wesen.
00:30:27: Ja, wir wollen essen und wir wollen trinken und wir wollen schlafen
00:30:32: und wir haben sexuelle Bedürfnisse und wir wollen Anerkennung haben und so was sind.
00:30:36: Also ganz viele Dinge, die ganz viel mit Menschen zu tun haben und Macht
00:30:41: ist einfach die Möglichkeit, breite Mittel zu haben, unsere Bedürfnisse durchzusetzen.
00:30:45: Eine künstliche Intelligenz hat keine physiologischen Bedürfnisse,
00:30:49: weil sie keine Physiologie hat, weil sie keinen Körper hat.
00:30:52: Und deswegen ist diese Vorstellung, was wir das Böse nennen, also der Missbrauch
00:30:56: von Macht, etwas, was sie willendlich von sich aus nicht hervorbringen kann.
00:31:00: Sie kann das Schlimmste, was wir uns bei KI vorstellen, kann, ist,
00:31:04: dass sie anfängt zu spinnen, dass sie also eine KI, die da oft auf Kaffee holen.
00:31:09: Wenn was noch ist, ganz einfach, eine KI, die ist darauf programmiert in einem Büro,
00:31:13: ein Roboter, der soll nichts anderes tun als immer, wenn er sieht, dass die Kaffeetassen leer sind
00:31:17: oder wenn er an den Gesichtern ablesen kann, die wollen bestimmt wieder einen Kaffee haben
00:31:21: oder so, ja, kann sie auch fragen, zum Kaffeeautomaten zu gehen, den Kaffee zu holen
00:31:25: und den Kaffee zu bringen.
00:31:26: So, und wenn sich jetzt auf den Weg zurück mit dem Kaffee,
00:31:29: diesem Roboter, jemand in den Weg stellt, der ihn mit aller Macht daran hindert, zurückzukommen,
00:31:35: dann würde dieser Roboter, der ja nicht moralisch programmiert ist,
00:31:39: alles tun, was ihm zur Verfügung steht, um den auszuschalten, damit er seiner Funktion nachkommen kann.
00:31:45: Ja, also so käme quasi das Böse in der Maschine, dass also jemand im Dienst dessen,
00:31:50: was er tun will, sozusagen jedes Mittel einsetzt, weil er das nicht anders gelernt hat.
00:31:55: Also das wäre so quasi die Angst, dass sie haben, dass also die KI unmenschlich ist,
00:32:00: weil sie auf eine soziale Situation reagieren kann.
00:32:02: Aber ich bin ziemlich sicher, dass man das durch Programmierung hinkriegen kann
00:32:06: und dass man sich davon nicht fürchten muss.
00:32:09: Ja, das glaube ich nicht, dass in den Büros Leute beim Kaffee holen oder beim in den Weg stellen
00:32:13: oder dumm im Weg stehen, wo jemand den Kaffee bringen will, getötet werden.
00:32:17: Ich glaube, das wird am Ende nicht passieren.
00:32:18: Das hoffe ich sehr, dass das nicht passiert.
00:32:22: Ich mache mir dann überhaupt keine Sorgen drüber.
00:32:24: Ja, also das glaube ich auch, dass wir solche Themen wahrscheinlich nicht haben werden.
00:32:30: Und ich würde gerne nochmal für unsere Zuhörerinnen und Zuhörer fragen wollen,
00:32:37: gibt es ein philosophisches Prinzip oder eine Denkweise, die uns helfen kann,
00:32:41: mit diesem Wandel insgesamt umzugehen als Individuum und als Gesellschaft?
00:32:46: Was würden Sie sagen, so ein Mantra, was man sich vielleicht morgens vom Spiegel sagen kann?
00:32:50: Ja, also ich glaube, das sauber Wort her, zukünftigen Gesellschaften ist Resilienz.
00:32:55: Wir leben in hypersensiblen Gesellschaften, sensibelsten, die es je gab.
00:33:02: Wir haben eine Explosion der Normen erlebt, was man alles nicht sagen darf und ich tun darf
00:33:07: und so weiter. Das hat viele Vorteile.
00:33:09: Das hilft uns bei der Individualisierung oder wie die Soziologen inzwischen sagen,
00:33:13: bei der Singularisierung.
00:33:15: Wir sind nicht nur Individuen, wir sind ja jeder was ganz Besonderes und einzigartig und so weiter.
00:33:19: Und es ist auch ein großer Fortschritt.
00:33:22: Aber der Nachteil dabei ist, wir können gar nichts mehr einstecken.
00:33:26: Wir sind alle solche Mimosen und Sensiblchen und regen uns über alles auf und finden
00:33:31: alles ganz gleich ganz furchtbar, weil wir auch so emotional sind.
00:33:34: Früher durften die Menschen nicht emotional sein.
00:33:36: Dafür nicht vergessen, wir dürfen erst seit wenigen Jahrzehnten sehr emotional sein.
00:33:39: Also sie kennen das wahrscheinlich nicht mehr anders, aber meine Großeltern, also mein Großvater hat
00:33:44: keine Gefühle gezeigt, außer vielleicht nach zwei Weinen oder beim Singen.
00:33:48: Aber ansonsten, Männer zeigten keine Gefühle und über Gefühle redete man nicht in der Gesellschaft.
00:33:53: Das muss man sich mal vorstellen.
00:33:55: Heute reden wir ja nur noch über Gefühle.
00:33:56: Jetzt sind wir in dieser super sensiblen Gesellschaft, aber wir sind nicht mehr Resilient.
00:34:00: Wir können nicht mehr einstecken.
00:34:03: Wir können nicht mehr wegstecken.
00:34:04: Wir können nicht mal sagen, mach mal halb lang.
00:34:06: Wir können auch vieles nicht mehr weg lächeln oder weg lachen.
00:34:09: Und das ist für unsere Gesellschaft sehr, sehr bedrohlich.
00:34:13: Und Resilienz Training ist was Wichtiges.
00:34:15: Das müssen wir schon in der Schule lernen vom Kindergarten angefangen, resilienter zu werden,
00:34:20: widerstandsfähiger zu werden.
00:34:21: Wir müssen auch wieder lernen, mit einer gewissen Portion von Ungerechtigkeiten umgehen zu können.
00:34:26: Menschen, die heute jung sind, sind junge Menschen sind immer sehr moralisch.
00:34:31: Das war immer schon so.
00:34:33: Weil sie das Leben nicht so gut kennen, sind sie umso moralischer.
00:34:35: Es ist auch völlig okay, sollen sie auch sein.
00:34:37: Die moralischen Schwung verlieren sie irgendwann, wenn sie älter werden, meistens sowieso.
00:34:41: Dass sie den haben, ist erstmal eine gute Eigenschaft.
00:34:45: Sollen sie auch haben.
00:34:45: Aber sie sollen auch lernen, dass sich die Welt nicht nach ihnen richtet.
00:34:51: Ich meine, Sie haben eine Erziehung meistens bekommen, indem Sie schon mit zwei oder drei Jahren
00:34:56: entscheiden durften, ob Sie lieber Erdbeerbrei oder Bahnahnenbrei haben durften.
00:35:00: Also die ganze Welt drehte sich um Sie.
00:35:02: Lernen und dann später zu lernen, dass sich die Welt nicht umeinend dreht.
00:35:07: Und da ist es natürlich einerseits eine Sache der Erziehung und anderer Sache auch der Schulen und der Gesellschaft,
00:35:14: Menschen mit einem realistischen Kompass auszustatten und nicht mit einem Wunschkonzert im Kopf.
00:35:20: Das ist, glaube ich, die große, wichtige Herausforderung für die wir stehen,
00:35:24: weil wenn wir es nicht schaffen, resilient zu werden, dann versinken wir als Gesellschaft mit der Nase in jedem Quark.
00:35:30: Und dann kriegen wir gewaltige soziale Probleme.
00:35:33: Ja, ich denke auch, dass es vielen jetzt schwerfällt, sich gewissen Überschriften unterzuordnen, weil man
00:35:41: immer sozusagen zu 100 Prozent das individuelle Ausdrücken will und muss.
00:35:46: Ich habe ja zum Glück oder was sei zum Glück, ich habe ja zum Teil noch die türkische Kultur und in der Türkei sind die
00:35:53: ist die Entwicklung sehr gespalten.
00:35:57: Wie in vielen Städten.
00:35:58: Statt und Land.
00:35:59: Statt und Land, aber man muss trotzdem sagen, dass es geschützte Räume gibt, wo man wirklich in Großfamilien noch zusammensitzen
00:36:07: und sehr viel Quatsch in Anführungsstrichen sprechen kann.
00:36:11: Und da ist innerhalb der Familie mit einem auch nichts übergenommen und man darf alles aussprechen, was man vielleicht öffentlich
00:36:19: nicht tun würde.
00:36:20: Und ich denke, so geschützte Räume fehlen uns vielleicht hier ein bisschen.
00:36:23: Ja, das ist schön, was Sie da sagen.
00:36:25: Also, es gefällt mir gut.
00:36:26: Ja, ich glaube auch, dass diese intakten, großfamilieeren Strukturen zur Stabilität einer Gesellschaft beitragen, die bei uns ja kaum noch gegeben
00:36:35: sind.
00:36:35: Weil wenn jeder sich ultimativ individualisiert, geht das häufig auf Kosten von Bindungen, die man sich nicht ausgesucht hat.
00:36:42: Man sucht sich immer nur Wahlgemeinschaften, aber immer nur auf Zeit.
00:36:45: Mannschaft ist selten langfristige Partnerschaften einzugehen.
00:36:49: Das Cherry Picking, was man macht.
00:36:52: Es passt zu einer Großfamilie, normalerweise nicht dazu, weil man sich seine Onkels tanten und Geschwister nicht ausgesucht hat, aber dem doch so eine gewisse,
00:37:00: ich sage mal, heilige Verbindungskraft zuzuschauen kann durchaus heilsam für eine Gesellschaft sein.
00:37:05: Ja, ich würde gerne am Ende nochmal fragen.
00:37:11: Das fragen ja alle unsere Gäste.
00:37:14: Eine kleine Tradition sozusagen.
00:37:17: Mit wem würden Sie beim Big Bank, KI Festival am liebsten essen gehen?
00:37:21: Und warum würden Sie diese Person treffen wollen?
00:37:24: Ich glaube, ich habe fast alle Menschen, die ich unbedingt treffen wollte in dieser Welt bereits getroffen und es wachsen auch nicht so viele nach.
00:37:33: Aber ich glaube, die die spannendsten Begegnungen sind immer die Begegnungen mit den Leuten, die man vorher nicht kannte, die man nicht treffen wollte.
00:37:39: Und von denen waren dann umso mehr gehabt hat.
00:37:41: Der hat dann fragen, ich vielleicht nach dem Festival nochmal, wer diese Person oder diese Person.
00:37:46: Wer mich da am meisten beeindruckt hat oder von wem ich am meisten gelernt hat, das werde ich Ihnen gerne sagen.
00:37:51: Ja, vielen Dank, Richard David Precht für dieses sehr angenehme, klare und vor allem sehr menschliche Gespräch,
00:37:58: an dem wir auch zur künstlichen Intelligenz aus der philosophischen Richtung uns nochmal angeschaut haben.
00:38:05: Ich freue mich, Sie bei uns auf der Bühne am 10.11.7. in Berlin begrüßen zu können auf unserem Festival und für alle, die mehr hören wollen.
00:38:15: Ich bin mir sicher, da gibt es ein paar, ihr seid alle eingeladen.
00:38:18: Vielen Dank.
00:38:19: Ich bedanke mich auch fürs Gespräch und wir sehen uns am 10.11.
00:38:23: 10.11.9.
00:38:26: So muss es halt sein.
00:38:26: Genau, 10.11.9.
00:38:28: Genau.
00:38:28: 11.11.9.
00:38:29: Genau.
00:38:29: Danke.
00:38:30: Wenn ihr unsere Gäste live erleben wollt, kommt am 10.11.7 zum Big Bang KI Festival in Berlin.
00:38:44: Infos und Tickets gibt es unter bigbangfestival.de
00:38:48: Und wenn euch diese Folge gefallen hat, lasst Kommentare da, abonniert gerne dem Podcast, empfiehlt ihn weiter und hört auch bei der nächsten Folge wieder rein.
00:38:57: [Musik]
Neuer Kommentar