Der Leitfaden des ISC bietet einen umfassenden Rahmen, der die Lücke zwischen hochrangigen Prinzipien und praktischer, umsetzbarer Politik schließen soll. Es reagiert auf die dringende Notwendigkeit eines gemeinsamen Verständnisses sowohl der Chancen als auch der Risiken, die neue Technologien mit sich bringen. Dies ist ein wichtiges Dokument für diejenigen, die in unserem sich schnell verändernden digitalen Zeitalter an der politischen Schnittstelle arbeiten.
Das Rahmenwerk untersucht das Potenzial von KI und ihren Derivaten aus einer umfassenden Perspektive und umfasst das menschliche und gesellschaftliche Wohlergehen sowie externe Faktoren wie Wirtschaft, Politik, Umwelt und Sicherheit. Einige Aspekte der Checkliste können je nach Kontext relevanter sein als andere, bessere Entscheidungen scheinen jedoch wahrscheinlicher, wenn alle Bereiche berücksichtigt werden, auch wenn einige in bestimmten Fällen schnell als irrelevant identifiziert werden können. Dies ist der inhärente Wert eines Checklisten-Ansatzes.
„In einer Zeit, die von rasanten technologischen Innovationen und komplexen globalen Herausforderungen geprägt ist, befähigt der ISC-Rahmen für eine umfassende und mehrdimensionale Analyse der potenziellen Auswirkungen Führungskräfte, fundierte, verantwortungsvolle Entscheidungen zu treffen. Es stellt sicher, dass wir bei unserem technologischen Fortschritt die ethischen, sozialen und wirtschaftlichen Auswirkungen sorgfältig abwägen.“
Peter Gluckman, ISC-Präsident
Während unter anderem von der UNESCO, der OECD, der Europäischen Kommission und den Vereinten Nationen hochrangige Grundsätze verkündet wurden und verschiedene Diskussionen über Fragen der möglichen Governance, Regulierung, Ethik und Sicherheit fortgesetzt werden, besteht eine große Lücke zwischen solchen Grundsätzen und a Governance oder Regulierungsrahmen. Das ISC geht mit seinem neuen Leitfaden für politische Entscheidungsträger auf diesen Bedarf ein.
Dieser Leitfaden für politische Entscheidungsträger soll kein Regulierungssystem verbieten, sondern vielmehr einen adaptiven und sich weiterentwickelnden Analyserahmen vorschlagen, der allen Bewertungs- und Regulierungsprozessen zugrunde liegen könnte, die von Interessengruppen, einschließlich Regierungen und dem multilateralen System, entwickelt werden könnten.
„Das Rahmenwerk ist ein entscheidender Schritt in der globalen Diskussion über KI, da es eine Grundlage bietet, auf der wir einen Konsens über die Auswirkungen der Technologie sowohl jetzt als auch in der Zukunft erzielen können.“
Hema Sridhar, ehemalige wissenschaftliche Chefberaterin im neuseeländischen Verteidigungsministerium und jetzt leitende Forschungsstipendiatin an der University of Auckland, Neuseeland.
Seit Oktober 2023 gibt es mehrere bedeutende nationale und multilaterale Initiativen, die sich eingehender mit der Ethik und Sicherheit von KI befassen. Die Auswirkungen der KI auf die Integrität einiger unserer kritischen Systeme, darunter Finanz-, Regierungs-, Rechts- und Bildungssysteme, sowie verschiedener Wissenssysteme (einschließlich wissenschaftlichem und indigenem Wissen) geben zunehmend Anlass zur Sorge. Der Rahmen spiegelt diese Aspekte weiter wider.
Das bisherige Feedback der ISC-Mitglieder und der internationalen politischen Entscheidungsgemeinschaft spiegelt sich in der überarbeiteten Version des Analyserahmens wider, der nun als Leitfaden für politische Entscheidungsträger veröffentlicht wird.
Ein Leitfaden für politische Entscheidungsträger: Bewertung sich schnell entwickelnder Technologien, einschließlich KI, großer Sprachmodelle und darüber hinaus
Dieses Diskussionspapier bietet den Überblick über einen ersten Rahmen als Grundlage für die vielfältigen globalen und nationalen Diskussionen, die im Zusammenhang mit KI stattfinden.
Laden Sie das Framework zur Verwendung in Ihrer Organisation herunter
Hier stellen wir das Framework-Tool als editierbares Excel-Tabellenblatt zur Verfügung, das Sie in Ihrer Organisation verwenden können. Wenn Sie ein Open-Source-Format bevorzugen, wenden Sie sich bitte an [E-Mail geschützt] .
Einleitung
Sich schnell entwickelnde Technologien stellen hinsichtlich ihrer Nutzung, Steuerung und möglichen Regulierung vor Herausforderungen. Die anhaltenden politischen und öffentlichen Debatten über künstliche Intelligenz (KI) und ihren Einsatz haben diese Themen in den Fokus gerückt. Umfassende Grundsätze für KI wurden von der UNESCO, der OECD, den Vereinten Nationen und anderen angekündigt, darunter die Bletchley-Erklärung des Vereinigten Königreichs, und es gibt aufkommende gerichtliche Versuche, Aspekte der Technologie beispielsweise durch die KI der Europäischen Union (EU) zu regulieren Act oder der jüngsten AI Executive Order der Vereinigten Staaten.
Während der Einsatz von KI in diesen und anderen Foren, über geopolitische Grenzen hinweg und in Ländern aller Einkommensniveaus ausführlich diskutiert wird, bleibt eine ontologische Lücke zwischen der Entwicklung hochrangiger Prinzipien und ihrer Umsetzung in die Praxis durch Regulierung, Politik oder Governance oder Stewardship-Ansätze. Der Weg vom Prinzip zur Praxis ist kaum definiert, aber angesichts der Art und des Rhythmus der KI-Entwicklung und -Anwendung, der vielfältigen Interessen und der Bandbreite möglicher Anwendungen kann kein Ansatz übermäßig allgemein oder präskriptiv sein.
Aus diesen Gründen kommt der nichtstaatlichen Wissenschaftsgemeinschaft weiterhin eine besondere Rolle zu. Der International Science Council (ISC) – mit seiner pluralistischen Mitgliedschaft aus den Sozial- und Naturwissenschaften – veröffentlichte im Oktober 2023 ein Diskussionspapier, das einen vorläufigen analytischen Rahmen vorstellte, der die Risiken, Vorteile, Bedrohungen und Chancen berücksichtigt, die mit der sich schnell entwickelnden digitalen Technologie verbunden sind. Obwohl es für die Berücksichtigung von KI entwickelt wurde, ist es von Natur aus technologieunabhängig und kann auf eine Reihe neuer und disruptiver Technologien wie synthetische Biologie und Quantentechnologie angewendet werden. Dieses Diskussionspapier forderte Rückmeldungen von Wissenschaftlern und politischen Entscheidungsträgern. Das überwältigende Feedback machte die Durchführung einer solchen Analyse notwendig und stellte einen wertvollen Ansatz für den Umgang mit neuen Technologien wie KI dar.
Der Zweck des Rahmenwerks besteht darin, ein Instrument bereitzustellen, um alle Beteiligten – einschließlich Regierungen, Handelsverhandlungsführer, Regulierungsbehörden, Zivilgesellschaft und Industrie – über die Entwicklung dieser Technologien zu informieren und ihnen dabei zu helfen, festzulegen, wie sie deren Auswirkungen, ob positiv oder negativ, einschätzen könnten die Technologie selbst und insbesondere ihre besondere Anwendung. Dieser Analyserahmen wurde unabhängig von Regierungs- und Industrieinteressen entwickelt. Es ist in seinen Perspektiven maximal pluralistisch und umfasst alle Aspekte der Technologie und ihrer Auswirkungen auf der Grundlage umfassender Konsultationen und Rückmeldungen.
Ziel dieses Diskussionspapiers für politische Entscheidungsträger ist es nicht, ein Regulierungssystem zu verbieten, sondern vielmehr einen adaptiven und sich weiterentwickelnden Analyserahmen vorzuschlagen, der allen Bewertungs- und Regulierungsprozessen zugrunde liegen könnte, die von Interessengruppen, einschließlich Regierungen und dem multilateralen System, entwickelt werden könnten.
Da Entscheidungsträger auf globaler und nationaler Ebene über geeignete politische Rahmenbedingungen und Hebel nachdenken, um die Risiken und Vorteile einer neuen Technologie wie KI auszugleichen, soll der Analyserahmen als ergänzendes Instrument dienen, um sicherzustellen, dass die gesamte Palette potenzieller Auswirkungen angemessen berücksichtigt wird.
Hintergrund: Warum ein analytisches Framework?
Das rasante Aufkommen von Technologien mit der Komplexität und den Auswirkungen von KI führt zu vielen Behauptungen über großen Nutzen. Es weckt jedoch auch Ängste vor erheblichen Risiken, von der individuellen bis zur geostrategischen Ebene.1 Ein Großteil der bisherigen Diskussion wurde in einem binären Sinne betrachtet, da öffentlich geäußerte Ansichten tendenziell am äußersten Ende des Spektrums angesiedelt sind. Die Behauptungen für oder gegen KI sind oft übertrieben und – angesichts der Natur der Technologie – schwer zu beurteilen.
Ein pragmatischerer Ansatz ist erforderlich, wenn Übertreibungen durch kalibrierte und detailliertere Bewertungen ersetzt werden. Die KI-Technologie wird sich weiterentwickeln, und die Geschichte zeigt, dass praktisch jede Technologie sowohl nützliche als auch schädliche Vorteile hat. Die Frage ist daher: Wie können wir die positiven Ergebnisse dieser Technologie erzielen und gleichzeitig das Risiko schädlicher Folgen verringern, von denen einige existenziell sein könnten?
Die Zukunft ist immer ungewiss, aber es gibt genügend glaubwürdige und fachkundige Stimmen zu KI und generativer KI, um einen relativ vorsorglichen Ansatz zu fördern. Darüber hinaus ist ein systemischer Ansatz erforderlich, da es sich bei KI um eine Klasse von Technologien mit breitem Einsatz und Anwendung durch mehrere Arten von Benutzern handelt. Dies bedeutet, dass der gesamte Kontext berücksichtigt werden muss, wenn die Auswirkungen eines KI-Einsatzes auf Einzelpersonen, das soziale Leben, das bürgerliche Leben, das gesellschaftliche Leben und im globalen Kontext betrachtet werden.
Im Gegensatz zu den meisten anderen Technologien ist bei digitalen und verwandten Technologien die Zeit zwischen Entwicklung, Veröffentlichung und Anwendung äußerst kurz, was weitgehend von den Interessen der Produktionsfirmen oder Agenturen bestimmt wird. Aufgrund ihrer Natur – und da sie auf dem digitalen Rückgrat basiert – wird KI über Anwendungen verfügen, die sich schnell durchsetzen, wie sich bereits bei der Entwicklung großer Sprachmodelle gezeigt hat. Daher können einige Eigenschaften erst nach der Veröffentlichung sichtbar werden, sodass das Risiko unvorhergesehener Folgen besteht, sowohl böswilliger als auch wohlwollender Natur.
Wichtige gesellschaftliche Wertedimensionen, insbesondere in verschiedenen Regionen und Kulturen, werden Einfluss darauf haben, wie jede Nutzung wahrgenommen und akzeptiert wird. Darüber hinaus dominieren bereits geostrategische Interessen die Diskussion, wobei sich souveräne und multilaterale Interessen ständig überschneiden und so zu Wettbewerb und Spaltung führen.
Bisher wurde ein Großteil der Regulierung einer virtuellen Technologie größtenteils unter dem Gesichtspunkt von „Grundsätzen“ und freiwilliger Einhaltung betrachtet, allerdings im Rahmen des EU-KI-Gesetzes2 und ähnlich sehen wir eine Verlagerung hin zu durchsetzbareren, aber etwas engeren Vorschriften. Die Einrichtung eines wirksamen globalen oder nationalen Technologie-Governance- und/oder Regulierungssystems bleibt eine Herausforderung und es gibt keine offensichtliche Lösung. Entlang der Kette sind mehrere Ebenen risikoorientierter Entscheidungsfindung erforderlich, vom Erfinder über den Hersteller, den Nutzer, die Regierung bis hin zum multilateralen System.
Während unter anderem von der UNESCO, der OECD, der Europäischen Kommission und den Vereinten Nationen hochrangige Grundsätze verkündet wurden und verschiedene hochrangige Diskussionen über Fragen der möglichen Governance, Regulierung, Ethik und Sicherheit fortgesetzt werden, besteht zwischen diesen Grundsätzen eine große Lücke Grundsätze und einen Governance- oder Regulierungsrahmen. Dies muss angegangen werden.
Als Ausgangspunkt erwägt das ISC die Entwicklung einer Taxonomie von Überlegungen, auf die sich jeder Entwickler, Regulierer, Politikberater, Verbraucher oder Entscheidungsträger beziehen kann. Angesichts der weitreichenden Auswirkungen dieser Technologien muss eine solche Taxonomie die Gesamtheit der Auswirkungen berücksichtigen und nicht einen eng fokussierten Rahmen. Aufgrund des Einflusses geostrategischer Interessen auf die Entscheidungsfindung nimmt die globale Fragmentierung zu. Angesichts der Dringlichkeit dieser Technologie ist es unerlässlich, dass unabhängige und neutrale Stimmen sich beharrlich für einen einheitlichen und integrativen Ansatz einsetzen.
1) Hindustan Times. 2023. Die G20 müssen ein internationales Gremium zum technologischen Wandel einrichten.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Das EU-Gesetz über künstliche Intelligenz. 2023. https://artificialintelligenceact.eu
Die Entwicklung eines analytischen Rahmens
Das ISC ist die wichtigste globale Nichtregierungsorganisation, die Natur- und Sozialwissenschaften integriert. Seine globale und disziplinäre Reichweite bedeutet, dass es gut aufgestellt ist, um unabhängige und global relevante Beratung zu generieren, um die bevorstehenden komplexen Entscheidungen zu unterstützen, insbesondere da die aktuellen Stimmen in diesem Bereich größtenteils aus der Industrie oder aus den politischen und politischen Gemeinschaften der großen Technologiemächte stammen.
Nach einer ausführlichen Diskussionsphase, die auch die Erwägung eines nichtstaatlichen Bewertungsprozesses beinhaltete, kam das ISC zu dem Schluss, dass sein nützlichster Beitrag darin bestünde, einen adaptiven Analyserahmen zu schaffen, der von allen als Grundlage für den Diskurs und die Entscheidungsfindung genutzt werden kann Stakeholder, auch während aller formellen Bewertungsprozesse, die entstehen.
Der vorläufige Analyserahmen, der im Oktober 2023 zur Diskussion und Rückmeldung veröffentlicht wurde, hatte die Form einer übergreifenden Checkliste, die sowohl für staatliche als auch für nichtstaatliche Institutionen konzipiert war. Der Rahmen identifizierte und untersuchte das Potenzial einer Technologie wie KI und ihrer Derivate aus einer breiten Perspektive, die das menschliche und gesellschaftliche Wohlergehen sowie externe Faktoren wie Wirtschaft, Politik, Umwelt und Sicherheit umfasst. Einige Aspekte der Checkliste können je nach Kontext relevanter sein als andere, aber bessere Entscheidungen scheinen wahrscheinlicher, wenn alle Bereiche berücksichtigt werden, auch wenn einige in bestimmten Fällen schnell als irrelevant identifiziert werden können. Dies ist der inhärente Wert eines Checklistenansatzes.
Der vorläufige Rahmen wurde aus früheren Arbeiten und Überlegungen abgeleitet, darunter dem Bericht des International Network for Governmental Science Advice (INGSA) zum digitalen Wohlbefinden3 und dem OECD-Rahmen für die Klassifizierung von KI-Systemen4, um die Gesamtheit der potenziellen Chancen, Risiken und Auswirkungen darzustellen der KI. Diese früheren Produkte waren in ihrer Absicht angesichts ihrer Zeit und ihres Kontexts stärker eingeschränkt; Es besteht Bedarf an einem übergreifenden Rahmen, der die gesamte Bandbreite der kurz- und längerfristigen Probleme abdeckt.
Seit seiner Veröffentlichung hat das Diskussionspapier erhebliche Unterstützung von vielen Experten und politischen Entscheidungsträgern erhalten. Viele haben insbesondere die Empfehlung unterstützt, einen adaptiven Rahmen zu entwickeln, der eine bewusste und proaktive Berücksichtigung der Risiken und Auswirkungen der Technologie ermöglicht und dabei immer die Gesamtheit der Dimensionen vom Individuum über die Gesellschaft bis hin zu Systemen berücksichtigt.
Eine wichtige Beobachtung, die im Rahmen des Feedbacks gemacht wurde, war die Anerkennung, dass mehrere der im Rahmenwerk berücksichtigten Implikationen von Natur aus vielschichtig sind und sich über mehrere Kategorien erstrecken. Beispielsweise könnte Desinformation sowohl aus individueller als auch aus geostrategischer Sicht betrachtet werden; Daher wären die Konsequenzen weitreichend.
Es wurde auch die Möglichkeit vorgeschlagen, Fallstudien oder Beispiele zum Testen des Frameworks einzubeziehen. Dies könnte zur Entwicklung von Leitlinien genutzt werden, um zu zeigen, wie es in der Praxis in verschiedenen Kontexten eingesetzt werden kann. Dies wäre jedoch ein erhebliches Unterfangen und könnte die Art und Weise einschränken, wie verschiedene Gruppen die Nutzung dieses Rahmenwerks wahrnehmen. Dies geschieht am besten durch politische Entscheidungsträger, die mit Experten in bestimmten Rechtsgebieten oder Kontexten zusammenarbeiten.
Seit Oktober 2023 gibt es mehrere bedeutende nationale und multilaterale Initiativen, die sich eingehender mit der Ethik und Sicherheit von KI befassen. Die Auswirkungen der KI auf die Integrität einiger unserer kritischen Systeme, darunter Finanz-, Regierungs-, Rechts- und Bildungssysteme, sowie verschiedener Wissenssysteme (einschließlich wissenschaftlichem und indigenem Wissen) geben zunehmend Anlass zur Sorge. Das überarbeitete Rahmenwerk spiegelt diese Aspekte weiter wider.
Die bisher eingegangenen Rückmeldungen spiegeln sich in der überarbeiteten Version des Analyserahmens wider, der nun als Leitfaden für politische Entscheidungsträger veröffentlicht wird.
Während das Framework im Kontext von KI und verwandten Technologien vorgestellt wird, ist es sofort auf die Überlegungen zu anderen sich schnell entwickelnden Technologien wie der Quanten- und synthetischen Biologie übertragbar.
3) Gluckman, P. und Allen, K. 2018. Wohlbefinden im Kontext schneller digitaler und damit verbundener Transformationen verstehen. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD-Rahmen zur Klassifizierung von KI-Systemen. OECD Digital Economy Papers, Nr. 323,#. Paris, OECD Publishing.
https://oecd.ai/en/classificatio
Der Rahmen
Die folgende Tabelle zeigt die Dimensionen eines mutmaßlichen Analyserahmens. Es werden Beispiele bereitgestellt, um zu veranschaulichen, warum jede Domäne wichtig sein kann. Im Kontext würde das Framework eine kontextrelevante Erweiterung erfordern. Es ist auch wichtig, zwischen allgemeinen Problemen, die während der Plattformentwicklung auftreten, und solchen, die bei bestimmten Anwendungen auftreten können, zu unterscheiden. Keine einzelne der hier aufgeführten Überlegungen sollte als Priorität behandelt werden und als solche sollten alle geprüft werden.
Die Probleme werden grob in die folgenden Kategorien eingeteilt, wie unten beschrieben:
In der Tabelle sind die Dimensionen aufgeführt, die bei der Bewertung einer neuen Technologie möglicherweise berücksichtigt werden müssen.
🔴 INGSA. 2018. Wohlbefinden im Kontext rasanter digitaler und damit verbundener Transformationen verstehen.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Neue Deskriptoren (beschafft durch umfangreiche Beratung, Feedback und Literaturrecherche)
🟡 OECD-Rahmen zur Klassifizierung von KI-Systemen: ein Werkzeug für wirksame KI-Richtlinien.
https://oecd.ai/en/classification
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟡KI-Kompetenz der Benutzer | Wie kompetent und wie bewusst sind die wahrscheinlichen Benutzer, die mit dem System interagieren werden, über die Eigenschaften des Systems? Wie werden sie mit den relevanten Benutzerinformationen und Warnhinweisen versorgt? |
🟡 Betroffener Stakeholder | Wer sind die Hauptakteure, die von dem System betroffen sein werden (Einzelpersonen, Gemeinschaften, gefährdete Arbeitnehmer, Branchenarbeiter, Kinder, politische Entscheidungsträger, Fachkräfte usw.)? |
🟡 Optional | Haben Benutzer die Möglichkeit, sich vom System abzumelden, oder erhalten sie die Möglichkeit, die Ausgabe anzufechten oder zu korrigieren? |
🟡Risiken für Menschenrechte und demokratische Werte | Hat das System grundlegende Auswirkungen auf die Menschenrechte, einschließlich, aber nicht beschränkt auf, Privatsphäre, Meinungsfreiheit, Fairness, Nichtdiskriminierung usw.? |
🟡Mögliche Auswirkungen auf das Wohlbefinden der Menschen | Beziehen sich die Systemwirkungsbereiche auf das Wohlbefinden des einzelnen Benutzers (Arbeitsqualität, Bildung, soziale Interaktionen, psychische Gesundheit, Identität, Umwelt usw.)? |
🟡 Potenzial für die Verdrängung menschlicher Arbeitskräfte | Besteht für das System die Möglichkeit, Aufgaben oder Funktionen zu automatisieren, die von Menschen ausgeführt wurden? Wenn ja, was sind die nachgelagerten Konsequenzen? |
🟡 Potenzial für Identitäts-, Werte- oder Wissensmanipulation | Ist das System so konzipiert oder potenziell in der Lage, die Identität des Benutzers zu manipulieren? Werte festlegen oder Desinformation verbreiten? |
🔴 Möglichkeiten zur Selbstdarstellung und Selbstverwirklichung | Besteht die Möglichkeit von Künstlichkeit und Selbstzweifeln? Besteht die Möglichkeit falscher oder? nicht nachweisbare Sachverständigenansprüche? |
🔴 Maße des Selbstwertgefühls | Gibt es Druck, ein idealisiertes Selbst darzustellen? Könnte Automatisierung einen Sinn ersetzen? der persönlichen Erfüllung? Gibt es Druck, mit dem System in der Welt zu konkurrieren? Arbeitsplatz? Ist es schwieriger, den Ruf des Einzelnen vor Desinformation zu schützen? |
🔴 Privatsphäre | Gibt es diffuse Verantwortlichkeiten für den Schutz der Privatsphäre und gibt es welche? Welche Annahmen werden darüber getroffen, wie personenbezogene Daten verwendet werden? |
🔴 Autonomie | Könnte das KI-System die menschliche Autonomie beeinträchtigen, indem es übermäßiges Vertrauen erzeugt? Endnutzer? |
🔴 Menschliche Entwicklung | Gibt es Auswirkungen auf den Erwerb von Schlüsselkompetenzen für die menschliche Entwicklung, wie z exekutive Funktionen oder zwischenmenschliche Fähigkeiten oder Veränderungen in der Aufmerksamkeitszeit beeinflussen Lernen, Persönlichkeitsentwicklung, psychische Probleme usw.? |
🔴 Persönliche Gesundheitsfürsorge | Gibt es Ansprüche auf Selbstdiagnose oder personalisierte Gesundheitslösungen? Wenn ja, Sind sie nach behördlichen Standards validiert? |
🔴 Psychische Gesundheit | Besteht das Risiko erhöhter Angstzustände, Einsamkeit oder anderer psychischer Probleme? Kann die Technologie solche Auswirkungen mildern? |
🟢 Menschliche Evolution | Könnten große Sprachmodelle und künstliche allgemeine Intelligenz das ändern? Verlauf der menschlichen Evolution? |
🟢 Mensch-Maschine-Interaktion | Könnte die Verwendung im Laufe der Zeit zu einer Dequalifizierung und Abhängigkeit einzelner Personen führen? Sind Gibt es Auswirkungen auf die menschliche Interaktion? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🔴 Gesellschaftliche Werte | Verändert das System die Natur der Gesellschaft grundlegend, ermöglicht es die Normalisierung von Ideen, die zuvor als unsozial galten, oder verstößt es gegen die gesellschaftlichen Werte der Kultur, in der es angewendet wird? |
🔴 Soziale Interaktionen | Gibt es Auswirkungen auf sinnvolle menschliche Kontakte, einschließlich emotionaler Beziehungen? |
🔴 Bevölkerungsgesundheit | Besteht das Potenzial, dass das System die Gesundheitsabsichten der Bevölkerung fördert oder untergräbt? |
🔴 Kultureller Ausdruck | Ist eine Zunahme kultureller Aneignung oder Diskriminierung wahrscheinlich oder schwieriger zu bekämpfen? Werden durch die Abhängigkeit vom System bei der Entscheidungsfindung kulturell relevante Teilbeziehungen der Gesellschaft ausgeschlossen oder marginalisiert? |
🔴 Öffentliche Bildung | Gibt es Auswirkungen auf die Lehrerrollen oder Bildungseinrichtungen? Betont oder verringert das System die digitale Kluft und Ungleichheit unter Studierenden? Wird der innere Wert von Wissen oder kritischem Verständnis gefördert oder untergraben? |
🟢 Verzerrte Realitäten | Sind die Methoden, mit denen man erkennt, was wahr ist, noch anwendbar? Ist die Wahrnehmung der Realität beeinträchtigt? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟡 Industriesektor | In welchem Industriesektor wird das System eingesetzt (Finanzen, Landwirtschaft, Gesundheitswesen, Bildung, Verteidigung usw.)? |
🟡 Geschäftsmodell | In welcher Geschäftsfunktion wird das System eingesetzt und in welcher Funktion? Wo wird das System eingesetzt (privat, öffentlich, gemeinnützig)? |
🟡 Auswirkungen auf kritische Aktivitäten | Würde eine Störung der Funktion oder Aktivität des Systems wesentliche Dienste oder kritische Infrastrukturen beeinträchtigen? |
🟡Breite des Einsatzes | Wie wird das System eingesetzt (begrenzter Einsatz innerhalb der Einheit vs. weit verbreitet auf nationaler/internationaler Ebene)? |
🟡 Technische Reife | Wie technisch ausgereift ist das System? |
🟢 Interoperabilität | Gibt es auf nationaler oder globaler Ebene wahrscheinlich Silos, die den freien Handel behindern und die Zusammenarbeit mit Partnern beeinträchtigen? |
🟢 Technologische Souveränität | Ist der Wunsch nach technologischer Souveränität ein treibender Faktor für das Verhalten, einschließlich der Kontrolle über die gesamte KI-Lieferkette? |
🔴 Einkommensumverteilung und nationale fiskalische Hebel | Könnten die Kernaufgaben des souveränen Staates beeinträchtigt werden (z. B. Reservebanken)? Wird die Fähigkeit des Staates, den Erwartungen und Auswirkungen der Bürger (sozial, wirtschaftlich, politisch usw.) gerecht zu werden, verbessert oder verringert? |
🟢 Digitale Kluft (KI-Kluft) | Werden bestehende digitale Ungleichheiten verschärft oder neue geschaffen? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🔴 Governance und öffentlicher Dienst | Könnten die Governance-Mechanismen und das globale Governance-System positiv oder negativ beeinflusst werden? |
🔴 Nachrichtenmedien | Wird sich der öffentliche Diskurs voraussichtlich polarisieren und auf Bevölkerungsebene verfestigen? Wird es Auswirkungen auf das Vertrauen in die Vierte Gewalt geben? Werden konventionelle Ethik- und Integritätsstandards für Journalisten weiter beeinträchtigt? |
🔴 Rechtsstaatlichkeit | Wird es Auswirkungen auf die Fähigkeit geben, Einzelpersonen oder Organisationen zu identifizieren, die zur Verantwortung gezogen werden können (z. B. welche Art von Verantwortung soll einem Algorithmus für negative Ergebnisse zugewiesen werden)? Entsteht ein Souveränitätsverlust (Umwelt, Finanzen, Sozialpolitik, Ethik etc.)? |
🔴Politik und sozialer Zusammenhalt | Besteht die Möglichkeit stärker verankerter politischer Ansichten und weniger Möglichkeiten zur Konsensbildung? Besteht die Möglichkeit einer weiteren Marginalisierung von Gruppen? Werden kontroverse Politikstile mehr oder weniger wahrscheinlich gemacht? |
🟢 Soziale Lizenz | Gibt es Datenschutzbedenken, Vertrauensprobleme und moralische Bedenken, die für die Akzeptanz der Nutzung durch die Beteiligten berücksichtigt werden müssen? |
🟢 Indigenes Wissen | Könnten indigene Kenntnisse und Daten beschädigt oder missbraucht werden? Gibt es angemessene Maßnahmen zum Schutz vor Falschdarstellung, Fehlinformation und Ausbeutung? |
🟢 Wissenschaftliches System | Ist die akademische und wissenschaftliche Integrität gefährdet? Gibt es einen Vertrauensverlust in die Wissenschaft? Gibt es Möglichkeiten des Missbrauchs, der Überbeanspruchung oder des Missbrauchs? Welche Konsequenz hat die Praxis der Wissenschaft? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟢 Präzise Überwachung | Sind die Systeme auf individuelle Verhaltens- und biologische Daten trainiert und könnten sie zur Ausbeutung von Einzelpersonen oder Gruppen genutzt werden? |
🟢 Digitaler Wettbewerb | Könnten staatliche oder nichtstaatliche Akteure (z. B. große Technologieunternehmen) Systeme und Daten nutzen, um die Bevölkerung und Ökosysteme anderer Länder zu verstehen und zu kontrollieren, oder könnten sie die gerichtliche Kontrolle untergraben? |
🟢 Geopolitischer Wettbewerb | Könnte das System den Wettbewerb zwischen Nationen um die Nutzung von Einzel- und Gruppendaten für wirtschaftliche, medizinische und sicherheitspolitische Interessen anheizen? |
🟢 Verschiebung der globalen Mächte | Ist der Status der Nationalstaaten als wichtigste geopolitische Akteure der Welt gefährdet? Besitzen Technologieunternehmen Macht, die einst Nationalstaaten vorbehalten war, und sind sie zu unabhängigen, souveränen Akteuren geworden (entstehende technopolare Weltordnung)? |
🟢 Desinformation | Würde das System die Produktion und Verbreitung von Desinformation durch staatliche und nichtstaatliche Akteure mit Auswirkungen auf den sozialen Zusammenhalt, das Vertrauen und die Demokratie erleichtern? |
🟢 Dual-Use-Anwendungen | Besteht die Möglichkeit sowohl einer militärischen als auch einer zivilen Nutzung? |
🟢 Fragmentierung der globalen Ordnung | Könnten sich Silos oder Cluster von Regulierung und Compliance entwickeln, die die Zusammenarbeit behindern, zu Inkonsistenzen in der Anwendung führen und Raum für Konflikte schaffen? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟢 Energie- und Ressourcenverbrauch (CO2-Fußabdruck) | Erhöhen das System und die Anforderungen die Energieaufnahme und den Ressourcenverbrauch über die durch die Anwendung erzielten Effizienzgewinne hinaus? |
🟢Energiequelle | Woher stammt die Energie für das System (erneuerbare vs. fossile Brennstoffe usw.)? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟡 Regie und Abholung | Werden die Daten und Eingaben von Menschen, automatisierten Sensoren oder beidem erfasst? |
🟡 Herkunft der Daten | Werden die Daten und Inputs von Experten bereitgestellt, beobachtet, synthetisiert oder abgeleitet? Gibt es Wasserzeichenschutz zur Bestätigung der Herkunft? |
🟡 Dynamische Natur der Daten | Sind die Daten dynamisch, statisch, von Zeit zu Zeit dynamisch aktualisiert oder in Echtzeit? |
🟡 Rechte | Sind die Daten geschützt, öffentlich oder personenbezogen (beziehen sich auf identifizierbare Personen)? |
🟡 Identifizierbarkeit und personenbezogene Daten | Sofern personenbezogen, werden die Daten anonymisiert oder pseudonymisiert? |
🟡 Struktur der Daten | Sind die Daten strukturiert, halbstrukturiert, komplex strukturiert oder unstrukturiert? |
🟡 Format der Daten | Ist das Format der Daten und Metadaten standardisiert oder nicht standardisiert? |
🟡 Maßstab der Daten | Wie groß ist der Datensatz? |
🟡 Angemessenheit und Qualität der Daten | Ist der Datensatz für den Zweck geeignet? Ist die Stichprobengröße ausreichend? Ist es repräsentativ und vollständig genug? Wie verrauscht sind die Daten? Ist es fehleranfällig? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟡 Informationsverfügbarkeit | Sind Informationen zum Systemmodell verfügbar? |
🟡 Art des KI-Modells | Ist das Modell symbolisch (vom Menschen erstellte Regeln), statistisch (verwendet Daten) oder hybrid? |
🟡 Mit dem Modell verbundene Rechte | Ist das Modell Open-Source oder proprietär, selbst oder von Dritten verwaltet? |
🟡 Einzelnes von mehreren Modellen | Besteht das System aus einem Modell oder mehreren miteinander verbundenen Modellen? |
🟡 Generativ oder diskriminativ | Ist das Modell generativ, diskriminativ oder beides? |
🟡 Modellbau | Lernt das System auf der Grundlage von Menschen geschriebener Regeln, aus Daten, durch überwachtes Lernen oder durch verstärkendes Lernen? |
🟡 Modellentwicklung (KI-Drift) | Entwickelt sich das Modell weiter und/oder erwirbt es Fähigkeiten durch die Interaktion mit Daten im Feld? |
🟡 Föderiertes oder zentrales Lernen | Wird das Modell zentral oder auf mehreren lokalen Servern oder „Edge“-Geräten trainiert? |
🟡 Entwicklung/Wartung | Ist das Modell universell, anpassbar oder auf die Daten des KI-Akteurs zugeschnitten? |
🟡 Deterministisch oder probabilistisch | Wird das Modell deterministisch oder probabilistisch verwendet? |
🟡 Modelltransparenz | Stehen Benutzern Informationen zur Verfügung, die es ihnen ermöglichen, Modellausgaben und -beschränkungen oder Nutzungsbeschränkungen zu verstehen? |
🟢 Rechnerische Einschränkung | Gibt es rechnerische Einschränkungen des Systems? Ist es möglich, Fähigkeitssprünge oder Skalierungsgesetze vorherzusagen? |
Eigenschaften | Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann |
🟡 Vom System ausgeführte Aufgabe(n). | Welche Aufgaben übernimmt das System (Erkennung, Ereigniserkennung, Prognose etc.)? |
🟡 Aufgaben und Aktionen kombinieren | Kombiniert das System mehrere Aufgaben und Aktionen (Inhaltsgenerierungssysteme, autonome Systeme, Steuerungssysteme etc.)? |
🟡 Autonomiegrad des Systems | Wie autonom sind die Handlungen des Systems und welche Rolle spielt der Mensch? |
🟡 Grad der menschlichen Beteiligung | Gibt es eine gewisse menschliche Beteiligung, um die Gesamtaktivität des KI-Systems zu überwachen und zu entscheiden, wann und wie das KI-System in jeder Situation eingesetzt werden soll? |
🟡 Kernanwendung | Gehört das System zu einem Kernanwendungsbereich wie menschliche Sprachtechnologien, Computer Vision, Automatisierung und/oder Optimierung oder Robotik? |
🟡 Auswertung | Stehen Standards oder Methoden zur Bewertung der Systemleistung zur Verfügung? |
Wie könnte dieser Rahmen genutzt werden?
Dieses Framework könnte auf viele Arten verwendet werden, einschließlich:
Ein Weg nach vorne
Zusammenfassend lässt sich sagen, dass der analytische Rahmen als Grundlage für ein Toolkit bereitgestellt wird, das von den Interessengruppen genutzt werden könnte, um alle wichtigen Entwicklungen entweder bei Plattformen oder bei der Nutzung auf konsistente und systematische Weise umfassend zu untersuchen. Die in diesem Rahmen vorgestellten Dimensionen sind von der Technologiebewertung bis zur öffentlichen Politik, von der menschlichen Entwicklung bis zur Soziologie sowie Zukunfts- und Technologiestudien relevant. Obwohl dieses analytische Framework für KI entwickelt wurde, lässt es sich viel umfassender auf jede andere neue Technologie anwenden.
6 UN AI Advisory Board. 2023. Zwischenbericht: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Danksagung
Sowohl bei der Entwicklung des ersten Diskussionspapiers als auch bei der Rückmeldung nach seiner Veröffentlichung wurden viele Personen konsultiert und gaben Feedback. Beide Papiere wurden von Sir Peter Gluckman, Präsident des ISC, und Hema Sridhar, ehemalige Chefberaterin für Wissenschaft, Verteidigungsministerium, Neuseeland und jetzt Senior Research Fellow, University of Auckland, Neuseeland, verfasst.
Insbesondere der ISC Lord Martin Rees, ehemaliger Präsident der Royal Society und Mitbegründer des Centre for the Study of Existential Risks, University of Cambridge; Professor Shivaji Sondhi, Professor für Physik, Universität Oxford; Professor K. Vijay Raghavan, ehemaliger wissenschaftlicher Hauptberater der indischen Regierung; Amandeep Singh Gill, der Gesandte des UN-Generalsekretärs für Technologie; Seán Ó hÉigeartaigh, Geschäftsführer, Centre for the Study of Existential Risks, University of Cambridge; Sir David Spiegelhalter, Winton-Professor für öffentliches Risikoverständnis, Universität
von Cambridge; Amanda-June Brawner, Senior Policy Adviser und Ian Wiggins, Direktor für internationale Angelegenheiten, Royal Society, Vereinigtes Königreich; Dr. Jerome Duberry, Geschäftsführer und Dr. Marie-Laure Salles, Direktorin, Geneva Graduate Institute; Chor Pharn Lee, Centre for Strategic Futures, Büro des Premierministers, Singapur; Barend Mons und Dr. Simon Hodson, Ausschuss für Daten (CoDATA); Professor Yuko Harayama, ehemalige Geschäftsführerin von RIKEN; Professor
Rémi Quirion, Präsident, INGSA; Dr. Claire Craig, Universität Oxford und ehemalige Leiterin der Zukunftsforschung, Government Office of Science; Prof. Yoshua Bengio, Wissenschaftlicher Beirat des UN-Generalsekretärs und an der Université de Montréal; und die vielen anderen, die dem ISC Feedback zum ersten Diskussionspapier gegeben haben.
Vorbereitung nationaler Forschungsökosysteme auf KI: Strategien und Fortschritte im Jahr 2024
Dieses Arbeitspapier des Thinktanks des ISC, dem Centre for Science Futures, bietet grundlegende Informationen und Zugang zu Ressourcen von Ländern aus allen Teilen der Welt, die sich in verschiedenen Stadien der Integration von KI in ihre Forschungsökosysteme befinden.