Wissenschaftler und Forscher schätzen Science-Fiction zunehmend wegen ihres Beitrags zur Vorwegnahme zukünftiger Szenarien. Im Rahmen seiner Mission, die Richtungen zu erforschen, in die uns Veränderungen in der Wissenschaft und den Wissenschaftssystemen führen, hat das Zentrum für Science Futures Wir haben uns mit sechs führenden Science-Fiction-Autoren zusammengesetzt, um ihre Ansichten darüber zu sammeln, wie die Wissenschaft die vielen gesellschaftlichen Herausforderungen bewältigen kann, denen wir in den nächsten Jahrzehnten gegenüberstehen. Der Podcast ist eine Partnerschaft mit Natur.
In unserer fünften Folge spricht Qiufan Chen mit uns über Entscheidungsfreiheit und soziale Verantwortung in der Wissenschaft als menschliches Unterfangen. Für Chen gilt dies insbesondere für künstliche Intelligenz. Während des Podcasts führt er uns durch die Auswirkungen von KI auf die Zukunft der wissenschaftlichen Forschung und wie KI-Entwicklungen stärker reguliert und damit ethischer gestaltet werden können.
Qiufan Chen
Qiufan Chen ist ein preisgekrönter chinesischer Spekulationsautor und Autor von Die Abfallflut und Co-Autor von AI 2041: Zehn Visionen für unsere Zukunft. Er ist außerdem Forschungswissenschaftler an der Yale University und Fellow des Berggruen Institute, USA. Unsere Hauptdiskussion dreht sich um künstliche Intelligenz und darum, wie wir die Leistungsfähigkeit dieser Technologie nutzen und gleichzeitig die damit verbundenen Gefahren vermeiden können.
Paul Shrivastava (00:04):
Hallo, ich bin Paul Shrivastava von der Pennsylvania State University. Und in dieser Podcast-Reihe spreche ich mit einigen der führenden Science-Fiction-Autoren von heute. Ich möchte ihre Ansichten zur Zukunft der Wissenschaft hören und erfahren, wie sie sich verändern muss, um die Herausforderungen zu meistern, denen wir in den kommenden Jahren gegenüberstehen.
Qiufan Chen (00:24):
KI könnte uns in Zukunft vielleicht dabei helfen, uns selbst als Spiegel zu reflektieren und uns zu einem besseren Menschen zu machen.
Paul Shrivastava (00:33):
Heute spreche ich mit Qiufan Stanley Chen, einem preisgekrönten chinesischen Schriftsteller. Ich habe seinen Roman gelesen, Die Abfallflut vor vielen Jahren und war beeindruckt von seiner Darstellung der misslichen Lage des Elektroschrotts. Sein jüngstes Co-Autorbuch KI 2041: 10 Visionen unserer Zukunft, verbindet auf anschauliche Weise fantasievolle Geschichten mit wissenschaftlichen Prognosen. Wir haben viel über künstliche Intelligenz gesprochen und darüber, wie wir die Leistungsfähigkeit dieser unglaublichen Technologie nutzen und gleichzeitig einige der damit verbundenen Gefahren vermeiden können.
Vielen Dank, dass Sie sich uns angeschlossen haben, Stan. Willkommen. Es ist erstaunlich, dass die Bandbreite der wissenschaftlichen Themen, die Sie beherrschen, wirklich bemerkenswert ist. Wie kam es, dass Sie sich für diese wissenschaftlichen Themen interessierten?
Qiufan Chen (01:28):
Als Science-Fiction-Fan muss ich also zugeben, dass ich von all dem ausgegangen bin star Wars, Star Trek, Jurassic Park, klassische Science-Fiction-Filme und -Bücher, Animationen von damals. Es gab mir jedes Mal viele neue Inspirationen und Ideen. Daher war ich schon immer total fasziniert von all diesen Zeichen, der Vorstellung von der Zukunft, dem Weltraum und sogar den Arten vor Millionen von Jahren. Also, wie wir sie wieder zum Leben erweckt haben.
Paul Shrivastava (02:02):
Die Wissenschaft gibt es also schon seit sehr langer Zeit. Was ist Ihre allgemeine Sicht auf Wissenschaft als menschliches Unterfangen?
Qiufan Chen (02:13):
Für mich ist es auf jeden Fall eine große Leistung. Und natürlich führt es dazu, dass wir als Menschen in einer besseren Verfassung leben. Und wenn wir auf die Geschichte zurückblicken, muss ich zugeben, dass es viele Herausforderungen gibt, denn ich habe das Gefühl, dass die Agentur nicht vollständig in den Händen von Menschen liegt. Manchmal habe ich das Gefühl, dass Wissenschaft und Technologie vielleicht, genau wie manche Arten, wie manche biologischen Wesen, ihren eigenen Zweck haben. Es hat seinen eigenen Geburtslebenszyklus. Es möchte mit den Menschen zusammen sein und sich weiterentwickeln. Wir sind also wie der Wirt, sie sind wie der Virus. Wir können es so oder umgekehrt sehen. Deshalb habe ich immer das Gefühl, dass zwischen Wissenschaft und Mensch eine wirklich tiefe Verflechtung besteht. Manchmal habe ich das Gefühl, dass wir uns durch die ganze Entwicklung von Wissenschaft und Technologie stark verändert haben, aber wir wissen nie, in welche Richtung es geht.
Paul Shrivastava (03:24):
Nun, lassen Sie es uns konkreter machen und uns auf das konzentrieren, was uns gerade am meisten beschäftigt: Künstliche Intelligenz. Wie können wir sicherstellen, dass wir bei der Entwicklung der KI soziale Gerechtigkeit sowie ethische und moralische Überlegungen berücksichtigen?
Qiufan Chen (03:40):
Das Problem ist, dass wir nicht umfassend in den Aufbau einer solchen Regulierung und eines solchen Rahmens investiert haben, um ethisch zu verhindern, dass etwas Negatives passiert. Ich denke, wir brauchen mehr Vielfalt bei der KI und insbesondere bei großen Sprachmodellen, weil wir über eine spezifische Ausrichtung sprechen. Selbst unter Menschen in verschiedenen Ländern, Kulturen und Sprachen hatten wir diese gemeinsame Ausrichtung nicht als einheitlichen Standard. Wie können wir also der Maschine, der KI, beibringen, sich als integrales Ganzes an das menschliche Wertesystem oder die Standards anzupassen? Ich denke, das ist etwas sehr Vorläufiges. Aber ich denke, dass der entscheidende Input nicht nur von den Technologieunternehmen, von den Ingenieuren, von all diesen Leuten, die in der Branche tätig sind, kommen sollte, sondern auch aus der interdisziplinären Welt, wie zum Beispiel Anthropologie und Psychologie, Soziologie. Wir brauchen eine vielfältigere Perspektive aus den Geisteswissenschaften, denn KI soll für die Menschen geschaffen werden, um den Menschen zu dienen. Aber der menschliche Faktor fehlt meiner Meinung nach im Moment völlig.
Paul Shrivastava (05:11):
Wie werden diese technologischen Fortschritte Ihrer Meinung nach die Art und Weise verändern, wie Wissenschaft in Zukunft betrieben wird?
Qiufan Chen (05:19):
Es scheint mir, dass dies ein völlig neuer Paradigmenwechsel ist, bei dem Wissenschaftler KI nutzen können, um nach neuen Mustern zu suchen, die Proteinstruktur vorherzusagen und die Korrelation innerhalb riesiger Datenmengen zu finden. Ich denke, das wird etwas Revolutionäres. Aber es gibt auch viele Bedenken in diesem Prozess. Beispielsweise können wir derzeit Millionen von Proteinstrukturen vorhersagen, aber die Frage ist, wie viel Prozent aller dieser Vorhersagen der Proteinstruktur gültig und wirksam für die tatsächliche Krankheit und den echten menschlichen Körper sind? Und eine andere Sache ist, dass sich dieser gesamte revolutionierte Bereich stark auf die Ansammlung riesiger Datenmengen konzentriert. Werden diese Daten von welcher Art von Gruppe erfasst? Was für eine Bevölkerung? Und geben sie diese Daten mit Vorwarnung weiter, wofür alles verwendet wurde? Und teilen wir die Daten mit verschiedenen Gruppen von Wissenschaftlern oder Forschern? Ich denke, es geht immer darum, wie wir ein Gegengewichtssystem aufbauen können, um Risiken und Herausforderungen zu minimieren und gleichzeitig die Anforderungen des Marktes wirklich zu erfüllen und den Menschen den größtmöglichen Nutzen zu bieten.
Paul Shrivastava (06:56):
Ja, ich denke, der Aufbau des Checks-and-Balance-Systems ist ein wichtiger Teil der Entwicklung der KI. Aber die Umweltauswirkungen der künstlichen Intelligenz selbst werden in den öffentlichen wissenschaftlichen Narrativen selten erwähnt.
Qiufan Chen (07:13):
Das ist etwas sehr Paradoxes, denn KI erfordert so viel Leistung. Und es erfordert eine Echtzeitberechnung. Es braucht so viel Extraktion aus der Umwelt. Aber inzwischen können wir es nutzen, um den Flächenbrand vom Satelliten aus zu erkennen. Wir können es nutzen, um die Artenvielfalt zu schützen. Wir können damit eine neue Lösung wie die Energiespeicherung der Batterie, die Smart Grids und vielleicht sogar die Kernfusionstechnologie in der Zukunft finden. Wenn man es also richtig nutzt, kann es uns definitiv schützen und den Klimawandel bekämpfen.
Paul Shrivastava (08:03):
Glauben Sie, dass KI irgendwann in der Zukunft mehr verstehen wird, als Menschen verstehen können?
Qiufan Chen (08:13):
Worüber ich also nachgedacht habe, ist ein Modell, etwa ein großes Modell jenseits des Menschen. Zum Beispiel die Daten von Tieren, Pflanzen, Pilzen, sogar von Mikro- und der gesamten Umwelt. Wir sprechen also über das gesamte Erdmodell. Wir müssen diese Art von Sensorschichten weltweit einsetzen. Vielleicht können wir also intelligenten Staub verwenden, der in Lems Roman „Der Unbesiegbare“ erwähnt wurde. Sie sprechen also von all diesem kleinen Staubschwarm, im Grunde handelt es sich um eine kollektive Intelligenz. Und der Mensch kann von solch einem großen Modell so viel lernen, weil es uns hilft, etwas wahrzunehmen, das über unser Sinnessystem und über das Menschliche hinausgeht. Dann können wir uns weniger auf den Menschen konzentrieren und mehr Mitgefühl gegenüber anderen Spezies zeigen. Und vielleicht wäre das die Lösung im Kampf gegen den Klimawandel, denn wir können spüren, wie sich die anderen Arten fühlen, und all dieser Schmerz, all dieses Leid, all diese Opfer könnten etwas Greifbares und Reales sein.
Paul Shrivastava (09:36):
Wunderbar. Sich künstliche Intelligenz im Modell des Menschen vorzustellen, ist eigentlich eine minderwertige Art, über künstliche Intelligenz nachzudenken … Der überlegenere Weg, das, was Sie das Ganzweltmodell nennen, ist der Weg zur Entwicklung.
Qiufan Chen (09:54):
Ja. Das erinnert mich an den Buddhismus, denn im Buddhismus sind alle fühlenden Spezies so gleich wie möglich und es gibt keine Menschen, die höher sein sollen als andere. Deshalb denke ich immer darüber nach, dass wir einen Weg finden müssen, all diese Philosophie und Werte des Buddhismus und Taoismus in die Maschine zu integrieren.
Paul Shrivastava (10:27):
Ich frage mich also, ob Sie die technischen Elemente der KI verstehen. Kann KI im Buddhismus, im Taoismus trainiert werden? Weil alle Bücher und Werte bereits kodifiziert sind. Ist es, wenn man so will, möglich, eine KI zu finden, die auf ihnen trainiert und eine synthetische Weltreligion erschafft?
Qiufan Chen (10:50):
Das könnte es auf jeden Fall, und es könnte einen besseren Job machen als jeder Priester, jeder Mönch, jeder Gurus auf der Welt, weil es so sachkundig ist. Aber als Praktizierender des Taoismus gibt es etwas, das über das synthetische Verständnis von all dem hinausgeht, nennen wir es religiöse oder spirituelle Erfahrung, etwas im Körper. Sie müssen also all diese körperlichen Hausaufgaben machen. Ich denke also, dass dies etwas ist, was der KI immer noch fehlt. Es hatte keinen Körper, es hatte kein komplexes Sinnessystem, es hatte zum Beispiel kein Selbstbewusstsein. Und ich denke, all das macht einen Menschen zum Menschen. KI könnte uns in Zukunft vielleicht dabei helfen, uns selbst als Spiegel zu reflektieren und uns zu einem besseren Menschen zu machen.
Paul Shrivastava (11:49):
Kann KI in Ihrer Vorstellung eine Seele haben?
Qiufan Chen (11:54):
Die Entstehung des Bewusstseins ist derzeit im Grunde ein Rätsel in der Wissenschaft. Meiner Meinung nach besteht also definitiv ein Zusammenhang zwischen der Emergenzfähigkeit großer Sprachmodelle und all diesen Emergenzphänomenen in klassischen oder quantenphysikalischen Komplexitätssystemen. Ich denke also, mathematisch gesehen können wir vielleicht eines Tages die Existenz von Bewusstsein beweisen. Aber es ist nicht null oder ein Status, sondern es ist wie das fortlaufende Spektrum von Status. Das bedeutet also, dass vielleicht sogar ein Stein, sogar ein Baum, sogar der Fluss oder der Berg einen bestimmten Grad an Bewusstsein haben, aber wir haben ihn einfach nicht erkannt, weil wir so auf den Menschen ausgerichtet sind. Aber es geht nur um Berechnung. Es geht um Zeit-Raum-Komprimierung. Es geht um die Bewahrung von Informationen. Es geht also um die Reduzierung der Entropie. Es ist also keine erkenntnistheoretische Frage, aber ich denke, es ist eine ontologische Frage. Es geht also um die Existenz.
Paul Shrivastava (13:14):
Vielen Dank, dass Sie sich diesen Podcast des Center for Science Futures des International Science Council angehört haben, der in Zusammenarbeit mit dem Arthur C. Clarke Center for Human Imagination an der UC San Diego erstellt wurde. Besuchen Sie Futures.council.science, um weitere Arbeiten des Center for Science Futures zu entdecken. Es konzentriert sich auf neue Trends in Wissenschafts- und Forschungssystemen und bietet Optionen und Werkzeuge, um fundiertere Entscheidungen zu treffen.
Paul Shrivastava, Professor für Management und Organisationen an der Pennsylvania State University, moderierte die Podcast-Reihe. Sein Spezialgebiet ist die Umsetzung nachhaltiger Entwicklungsziele. Der Podcast wird auch in Zusammenarbeit mit dem Arthur C. Clarke Center for Human Imagination an der University of California, San Diego, erstellt.
Das Projekt wurde betreut von Matthias Denis und vorbeigetragen Dong Liu, Aus der Zentrum für Science Futures, der Think Tank des ISC.
Haftungsausschluss
Die in unseren Gastblogs präsentierten Informationen, Meinungen und Empfehlungen sind die der einzelnen Autoren und spiegeln nicht unbedingt die Werte und Überzeugungen des International Science Council wider.