KI: Unterschied zwischen den Versionen
Admin (Diskussion | Beiträge) |
Admin (Diskussion | Beiträge) |
||
(11 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 5: | Zeile 5: | ||
== Fragen == | == Fragen == | ||
* Lohnt es sich, ein System unter ethischer Perspektive zu evaluieren? -> Algoskop | * Lohnt es sich, ein System unter ethischer Perspektive zu evaluieren? -> Algoskop | ||
− | * | + | * Ist es KI? -> KIometer |
+ | |||
+ | == KIometer == | ||
+ | * lernt es? | ||
+ | * ist es komplex? | ||
+ | * benutzt es viele Daten? | ||
+ | |||
+ | [[Datei:KIodernicht.png|left|thumb]] | ||
+ | <div style="clear: both"></div> | ||
== Algoskop == | == Algoskop == | ||
[[Datei:Algoskop.png|thumbnail]] | [[Datei:Algoskop.png|thumbnail]] | ||
{{c|»Algorithmen«. Diese Fokussierung auf ethisch relevante algorithmische Entscheidungssysteme nenne ich das Algoskop.|KZ-AKT 24}} | {{c|»Algorithmen«. Diese Fokussierung auf ethisch relevante algorithmische Entscheidungssysteme nenne ich das Algoskop.|KZ-AKT 24}} | ||
+ | |||
+ | {{c|Aus der obigen Zusammenfassung ergibt sich, dass nur eine relativ kleine Klasse von Softwaresystemen unter einer ethischen Perspektive betrachtet werden sollte. Dies sind primär solche, die aus Daten lernen, wie sich Menschen in der Vergangenheit verhalten haben, um daraus Schlüsse über das mögliche zukünftige Verhalten von anderen Menschen zu ziehen und solche, die über den Zugang zu gesellschaftlichen Ressourcen entscheiden.|KZ-AKT 282-3}} | ||
* Software | * Software | ||
Zeile 29: | Zeile 39: | ||
=== Operationalisierung === | === Operationalisierung === | ||
− | Messbarmachung | + | * operationale Definition eines Konzeptes |
− | * der modellierten Objekte | + | * Messbarmachung |
− | * das, was eine gute Entscheidung ist | + | ** der modellierten Objekte |
+ | ** das, was eine gute Entscheidung ist | ||
+ | |||
+ | Operationale Definition: | ||
+ | »An operational definition is a procedure agreed upon for translation of a concept into measurement of some kind.« Zitiert aus: W. E. Deming: The new economics – for Industry, Government, Education, MIT Press Ltd., Cambridge/Massachusetts (2000), S. 105 | ||
=== Modell der Welt === | === Modell der Welt === | ||
Zeile 66: | Zeile 80: | ||
{{c|Im Nachhinein ist mir aber auch bewusst geworden, dass das systemische Denken, das ich aus der Biochemie kannte, in der Informatik weitgehend fehlt – etwas, das wir jetzt gut gebrauchen könnten, wo Algorithmen die Gesellschaft immer stärker beeinflussen!|KZ-AKT 64}} | {{c|Im Nachhinein ist mir aber auch bewusst geworden, dass das systemische Denken, das ich aus der Biochemie kannte, in der Informatik weitgehend fehlt – etwas, das wir jetzt gut gebrauchen könnten, wo Algorithmen die Gesellschaft immer stärker beeinflussen!|KZ-AKT 64}} | ||
+ | |||
+ | {{c|Ich habe Ihnen anhand einiger Beispiele aber gezeigt, dass der »Algorithmen-TÜV« nicht der richtige Ort ist, wenn es um die Frage der sinnvollen Anwendung eines algorithmischen Entscheidungssystems in einem komplexen sozialen Prozess geht. Der Grund dafür liegt darin, dass erst der soziale Kontext die möglichen Risiken festlegt und damit auch das Qualitätsmaß bestimmt. Um das Schadenspotenzial des sozio-technischen Gesamtsystems zu analysieren, bedarf es Personen, die die dafür notwendige Ausbildung haben.|KZ-AKT 283-4}} | ||
== Big Data == | == Big Data == | ||
Zeile 117: | Zeile 133: | ||
{{c|Algorithmen des maschinellen Lernens sind sehr datenhungrig.|KZ-AKT 172}} | {{c|Algorithmen des maschinellen Lernens sind sehr datenhungrig.|KZ-AKT 172}} | ||
− | |||
− | |||
{{c|Das ist maschinelles Lernen: Automatisiertes Lernen an Beispielen, in denen Entscheidungsregeln gesucht und in einem statistischen Modell abgelegt werden.|KZ-AKT 132}} | {{c|Das ist maschinelles Lernen: Automatisiertes Lernen an Beispielen, in denen Entscheidungsregeln gesucht und in einem statistischen Modell abgelegt werden.|KZ-AKT 132}} | ||
Zeile 151: | Zeile 165: | ||
{{c|Wurde die Struktur aufgebaut, sprechen wir vom trainierten statistischen Modell. Neue Daten werden dann mithilfe eines zweiten, sehr einfachen Algorithmus durch das statistische Modell geleitet – es kommt als Entscheidung eine einzige Zahl heraus. Diese kann eine Klassifikation oder eine Risikobewertung repräsentieren.|KZ-AKT 202}} | {{c|Wurde die Struktur aufgebaut, sprechen wir vom trainierten statistischen Modell. Neue Daten werden dann mithilfe eines zweiten, sehr einfachen Algorithmus durch das statistische Modell geleitet – es kommt als Entscheidung eine einzige Zahl heraus. Diese kann eine Klassifikation oder eine Risikobewertung repräsentieren.|KZ-AKT 202}} | ||
+ | |||
+ | {{c|Es ist für mich als Naturwissenschaftlerin ebenfalls nur wenig nachvollziehbar, warum die von den Maschinen gefundenen Korrelationen nicht in klassischen Experimenten auf ihre Stichhaltigkeit überprüft werden, bevor sie verwendet werden dürfen. ... Aber am Ende sollten nur noch Variablen Eingang in das statistische Modell finden, bei denen ein kausaler Zusammenhang begründbar ist. ... Und wenn man die Kausalketten kennt, dann braucht man vermutlich auch keine gelernten statistischen Modelle mehr, sondern kann die Erkenntnisse in für Menschen lesbarer Form als Entscheidungsregeln speichern.|KZ-AKT 264}} | ||
* Modell der Welt | * Modell der Welt | ||
Zeile 162: | Zeile 178: | ||
{{c|Der eigentliche Qualitätstest besteht also darin, wie gut die gefundenen Regeln auf den Teil der Daten anwendbar sind, die der Algorithmus nicht zur Verfügung hatte.|KZ-AKT 143}} | {{c|Der eigentliche Qualitätstest besteht also darin, wie gut die gefundenen Regeln auf den Teil der Daten anwendbar sind, die der Algorithmus nicht zur Verfügung hatte.|KZ-AKT 143}} | ||
+ | |||
+ | == AI Software Development Life Cycle == | ||
+ | https://www.sequoiacap.com/article/ai-powered-developer-tools/ | ||
== Korrelation und Kausalität == | == Korrelation und Kausalität == | ||
Zeile 188: | Zeile 207: | ||
=== Nachvollziehbarkeitsforderungen === | === Nachvollziehbarkeitsforderungen === | ||
* Mechanismen und Prozesse werden gefordert, mit denen unabhängige Experten die Resultate und das allgemeine Verhalten des Entscheidungssystem eigenständig untersuchen können. | * Mechanismen und Prozesse werden gefordert, mit denen unabhängige Experten die Resultate und das allgemeine Verhalten des Entscheidungssystem eigenständig untersuchen können. | ||
+ | |||
+ | === Interpretierbarkeit === | ||
+ | https://ff06-2020.fastforwardlabs.com/ | ||
== Risikomatrix == | == Risikomatrix == | ||
Zeile 201: | Zeile 223: | ||
[[Datei:Forderungsklassen.png|thumbnail|Zusammenfassung der Transparenz- und Nachvollziehbarkeitsforderungen in den fünf unterschiedlichen Klassen von algorithmischen Entscheidungssystemen. (aus: KZ-AKT 245)]] | [[Datei:Forderungsklassen.png|thumbnail|Zusammenfassung der Transparenz- und Nachvollziehbarkeitsforderungen in den fünf unterschiedlichen Klassen von algorithmischen Entscheidungssystemen. (aus: KZ-AKT 245)]] | ||
+ | <br clear="all" /> | ||
== Menschenbild dahinter == | == Menschenbild dahinter == | ||
Zeile 218: | Zeile 241: | ||
{{c|Ich kenne allerdings kein Lehrbuch oder Handbuch, das diese drei Annahmen explizit nennt und verlangt, ihre Gültigkeit zu überprüfen, bevor das statistische Modell zur Vorhersage künftigen Verhaltens genutzt wird.|KZ-AKT 255}} | {{c|Ich kenne allerdings kein Lehrbuch oder Handbuch, das diese drei Annahmen explizit nennt und verlangt, ihre Gültigkeit zu überprüfen, bevor das statistische Modell zur Vorhersage künftigen Verhaltens genutzt wird.|KZ-AKT 255}} | ||
+ | |||
+ | == Schwache & starke KI == | ||
+ | [[Datei:KeinestarkeKI.png|thumb]] | ||
+ | |||
+ | {{c|Aber wenn es eine starke KI geben soll, kommen wir um eine »Master-Optimierungsfunktion«, mit der sie ihre Handlungen bewertet, nicht herum.|KZ-AKT 273}} | ||
+ | |||
+ | {{c|Sowohl die notwendige Datenauswahl als auch die Operationalisierung von sozialen Konzepten ist aber – wie am Beispiel der MIT-Studie und vielen weiteren soziologischen Studien zu sehen – stark kulturell geprägt.|KZ-AKT 277-8}} | ||
+ | |||
+ | {{c|Die Ausgangsbedingungen für eine starke KI sind also schlecht: Sie braucht eine Optimierungsfunktion, diese muss aber – wenn sie menschenzentriert sein soll – eine sinnvolle Auswahl an Daten bekommen und soziale Konzepte operationalisieren. Beides ist stark von kulturellen Perspektiven abhängig.|KZ-AKT 278}} | ||
+ | |||
+ | {{c|Ich glaube, dass die Menge der möglichen Optimierungsfunktionen einer starken KI, die menschheitsverträglich sind, unendlich klein ist gegenüber der Menge möglicher Optimierungsfunktionen, die keine positiven Auswirkungen auf den Planeten, seine Flora und Fauna inklusive der Menschheit hätten.|KZ-AKT 279-280}} |
Aktuelle Version vom 28. März 2023, 18:31 Uhr
- Künstliche Intelligenz
- Artificial Intelligence
- 人工知能
Fragen
- Lohnt es sich, ein System unter ethischer Perspektive zu evaluieren? -> Algoskop
- Ist es KI? -> KIometer
KIometer
- lernt es?
- ist es komplex?
- benutzt es viele Daten?
Algoskop
- Software
- Algoritmische Entscheidungssysteme
- mit lernender Komponente
- die über Menschen entscheidet
- mit lernender Komponente
- Algoritmische Entscheidungssysteme
- AES sind unkritisch, wenn über Dinge entschieden werden soll, die keinen direkten Bezug zu Menschen oder zur Gesellschaft haben.
- AES sind kritisch:
- wenn es um Menschen geht
- wenn es um die Teilhaber an der Gesellschaft geht
- wenn es um Zugang zur wichtigen Ressourcen geht
Ergo: Nur eine relativ kleine Klasse von Softwaresystemen braucht unter ethischer Perspektive betrachtet werden.
OMA-Prinzip
Operationalisierung
- operationale Definition eines Konzeptes
- Messbarmachung
- der modellierten Objekte
- das, was eine gute Entscheidung ist
Operationale Definition: »An operational definition is a procedure agreed upon for translation of a concept into measurement of some kind.« Zitiert aus: W. E. Deming: The new economics – for Industry, Government, Education, MIT Press Ltd., Cambridge/Massachusetts (2000), S. 105
Modell der Welt
Die Modellierung eines Problems ist auch immer schon selbst ein Problem. -> Explikation
Unterschied zwischen
- Land und Landkarte
- Situation und Konstellation
- echte Situation und künstliche Repräsentation
Algorithmus
- Input: Daten
- Nutzung vorhandener Algorithmen
- Output: Daten -> Bedetungsgebung -> Interpretation
Lange Kette der Verantwortlichkeiten
...
Kein Algorithmen-TÜV sondern systemischer Blick
Ganzheitliche Betrachtung des soziotechnischen Gesamtsystems
Big Data
- Volume (Masse)
- Velocity (Geschwindigkeit)
- Variety (Vielfältigkeit)
Big Data wird dann genutzt, wenn vorhanden:
- Mehrwert (Value)
- Validität (Validity)
Maschinelles Lernen
Prinzip:
- Input: Regel
- Output: Feedback gegenüber Grundwahrheit -> stärkt oder schwächt die Regel
Maschinelles Lernen kann also im Wesentlichen dort erfolgreich sein, wo die folgenden Bedingungen erfüllt sind:
- Es gibt eine ausreichend große und gute Trainingsdatenmenge (Input).
- Es gibt eine sehr gut messbare Grundwahrheit, also das, was vorherzusagen ist (Output).
- Es gibt kausale Zusammenhänge zwischen dem Input und dem vorherzusagenden Output.
Algorithmen des maschinellen Lernens sind uns in diesem Fall klar überlegen, da sie:
- nahezu beliebig große Datenmengen nach Korrelationen durchsuchen können.
- nach sehr vielen verschiedenen Arten von Korrelation suchen können.
- auch schwache Korrelationen noch gewinnbringend in die statistischen Modelle einfließen lassen können.
...
Die Ergebnisse maschinellen Lernens werden dann für uns glaubhaft, wenn zusätzlich das Folgende gilt:
- Der kausale Zusammenhang zwischen dem Input und dem vorherzusagenden Output ist so weit bekannt, dass es eine klar definierbare Menge an Inputdaten gibt, auf die sich alle beteiligten Akteur:innen leicht einigen konnten.
- Es gibt möglichst viel Feedback für beide Fehlertypen (falsch-positiv und falsch-negative Entscheidungen). Damit kann die Qualität fortlaufend gemessen und das statistische Modell dynamisch nachgebessert werden.
- Es gibt ein klar definierbares Qualitätsmaß, auf das sich alle beteiligten Akteur:innen leicht einigen konnten.
Durchführung 1. Algo: Maschinelle Lernalgorithmus
- Algorithmen des maschinelles Lernens
- Input: viele vorhandene Daten mit bekanntem Ergebnis
- Ziel: Der Computer soll anhand von konkreten Beispielen und vorhandenen Grundwahrheiten möglichst generalisierte Regeln lernen.
Ich erkläre skizzenhaft, wie Algorithmen oder Heuristiken diese Regeln jeweils aus den Daten lernen und wie sie dann in einem statistischen Modell gespeichert werden:
- Der Baum der Erkenntnis: Entscheidungsbäume
- Der Holzspießtest aka Support Vector Machines
- Und – sehr skizzenhaft – neuronale Netzwerke (KZ-AKT 134)
Ergebnis: trainiertes statistisches Modell
- Modell der Welt
- gelernte Regeln, Heuristiken
- in einem statistischen Modell abgelegte Entscheidungsregeln
Durchführung 2. Algo: Entscheidungsalgorithmus
- einfacher Algorithmus
AI Software Development Life Cycle
https://www.sequoiacap.com/article/ai-powered-developer-tools/
Korrelation und Kausalität
Qualitäts- und Fairnessmaße
AES: Algorithmisches Entscheidungssystem
Kontrollforderungen
Transparenzforderungen
- Forderung nach Einsicht in die getroffenen Entscheidungen
Nachvollziehbarkeitsforderungen
- Mechanismen und Prozesse werden gefordert, mit denen unabhängige Experten die Resultate und das allgemeine Verhalten des Entscheidungssystem eigenständig untersuchen können.
Interpretierbarkeit
https://ff06-2020.fastforwardlabs.com/
Risikomatrix
- 5 Kategorien an technischer Regulation
Menschenbild dahinter
Der Mensch ist ein schlechter Entscheider
Annahme:
- Der Mensch ist ein schlechter Entscheider
- zu evaluieren: tatsächlich so schlecht?
- Qualitätsmaß
- Feststellen ob die gewünschte Veränderung tatsächlich eingetreten ist
Prognostizierbarkeit zukünftigen Verhaltens
Annahmen:
- eigenschaftsbasiertes Verhalten
- Operationalisierbarkeit und Beobachtung aller kausaler Parameter
- Transferierbarkeit (der Prognose von einer Gruppe auf einen Einzelnen)