Künstliche Intelligenz (KI) ist derzeit das Trend-Thema im populären Tech-Bereich. Da kann jeder mitreden, weil dystopisches Denken ein Breitensport ist, den so gut wie alle hinbekommen, die auch nur eine einzige Folge von Star Trek – The Next Generation oder einen der Terminator-Filme gesehen haben. Der blasse Androide Data und der abgrundtief böse Haudrauf prägen heute noch unsere Vorstellungen von künstlicher Intelligenz – einmal als friedliche Helfer mit emotionalen Defiziten (armer Data!) und dann als amoklaufender Killer, der die Menschheit ausradieren will. Beides macht uns irgendwie Angst oder bereitet uns zumindest Unbehagen. Die Autorin Ulla Hahn fürchtet gar, dass ein kompletter Berufsstand, nämlich der des Autors, durch die KI ausgerottet werden könnte und proklamierte vor wenigen Tagen: „Vernunft ist auch eine Herzenssache“. Tja, ein Herz, das haben Algorithmen nun mal nicht – ätsch! Wer will schon einen Roman von einem blutleeren Bot lesen? Da fehlen doch Sinn und Sinnlichkeit, Schicksal und Scheitern, Versoffenheit und Verdruss – kurz: alle allzu menschlichen Erfahrungen. Geschichten sollen gefälligst nicht berechenbar sein, sondern überraschend! Entsprechend fielen auch die Kommentare zu Hahns Text in der FAZ aus: „Nein, so etwas würde ich nicht lesen!“ und „Da hätte ich Angst!“ Really? Angst vor einem Text?
Dabei sind künstliche Intelligenzen schon lange Teil unseres Alltags. Ob als digitale Assistenten in Smartphone oder Kühlschrank, als Chatbots, bei der Bonitätsprüfung oder bei der Auswahl individualisierter Werbeanzeigen auf Facebook und Co.
Das Ding ist: Künstliche Intelligenzen sind ständig hungrig. Und wovon ernähren sich die selbstlernenden Systeme? Natürlich von Daten! Sie werden nur besser, wenn wir sie ordentlich füttern. Das Prinzip ist uns vertraut: Auch ein Mensch, der nix lernt, kann nachher nix. Aber was passiert eigentlich, wenn dem unermesslichen Datenhunger plötzlich Grenzen, die KI quasi auf Diät gesetzt wird? Verhungert sie dann und bleibt schlichtweg blöd? Schränkt die DSGVO mit ihren ganzen Vorschriften in Bezug auf personenbezogene Daten die künstlichen Intelligenzen nicht total ein? Ist der Grundsatz der Datenminimierung ein Killer für datenhungrige Algorithmen?
ERSTMAL IST ALLES VERBOTEN
Das Prinzip der DSGVO ist das Verbot mit Erlaubnisvorbehalt. Erlaubt ist also nur das, was erlaubt ist – sonst ist, was die Verarbeitung personenbezogener Daten angeht, alles verboten. Das ist so, als wäre in einer Flirtsituationen-Grundverordnung (FSGVO) festgehalten, welche Anmachen erlaubt wären – alles andere ginge gar nicht. Also nicht Unerlaubtes wie „Jemanden beim Erstkontakt anspringen/festhalten/am Hintern beschnuppern (bei Hunden völlig im Rahmen!)“ müsste bekannt sein, sondern Erlaubtes (unverfängliche Standardsprüche wie „Von welcher Wolke bist du denn gefallen, mein Engel?“). Kreativität wäre dann kein Evolutionsvorteil mehr, weil sich alle strikt an die Regeln halten müssten. Klingt zumindest in Bezug auf eine FSGVO natürlich erschreckend und auf diese Weise funktionieren nicht einmal die meisten unserer Gesetze, aber in puncto Datenschutz geht es nun mal, wie der Name schon sagt, um den Schutz (personenbezogener) Daten. Und der muss klar geregelt werden, weil wir sonst ständig fürchten müssten, dass Unternehmen, Institutionen oder der Staat durch irgendwelche Hintertürchen doch beliebig mit unseren Daten herumhantieren könnten, wodurch uns Nachteile entstehen würden.
Üblicherweise gilt bei den meisten Gesetzen das Missbrauchsprinzip („Alles ist erlaubt, solange es nicht verboten ist.“) Das präventive Verbotsprinzip mit Erlaubnisvorbehalt („Alles, was nicht erlaubt ist, ist verboten.“) kommt nur dann zur Anwendung, wenn Menschen besonders geschützt werden müssen, z.B. in bestimmten Bereichen des Lebensmittelrechts (zugelassene Zusatzstoffe), bei Arzneimitteln und Behandlungsmethoden (im ambulanten Bereich) oder wenn es um Baugenehmigungen geht. In diesen Bereichen wäre es fatal, wenn erstmal alles erlaubt und nur bestimmte Sachen verboten wären. In Deutschland ist – neben Menschen – übrigens auch Bier besonders geschützt: Das deutsche Reinheitsgebot folgt nämlich ebenfalls dem Prinzip des Erlaubnisvorbehalts: Ins Bier dürfen ausschließlich Hopfen, Malz, Hefe und Wasser, sonst nix – und da motzt, im Gegensatz zur DSGVO keiner…
DSFA IST KEIN ROLLENSPIEL
Die DSGVO nennt natürlich sehr viel mehr Erlaubnistatbestände als das Reinheitsgebot. Und die sollte jeder, der personenbezogene Daten verarbeitet, kennen. Zum Zwecke der Vertragserfüllung oder durch die Einwilligung des Vertragspartners dürfen Daten zum Beispiel erhoben werden. Beim Einsatz von KI sind die Risiken für Betroffene in der Regel höher und die DSGVO fordert in Artikel 35 für solche Fälle die Durchführung einer Datenschutz-Folgenabschätzung (DSFA). In Abschnitt 7 ist klar geregelt, wie solch eine Folgenabschätzung auszusehen hat: Auf „eine systematische Beschreibung der geplanten Verarbeitungsvorgänge und der Zwecke der Verarbeitung, gegebenenfalls einschließlich der von dem Verantwortlichen verfolgten berechtigten Interessen“ hat eine „Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck“ zu erfolgen, anschließend „eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen“ und zuletzt „die zur Bewältigung der Risiken geplanten Abhilfemaßnahmen, einschließlich Garantien, Sicherheitsvorkehrungen und Verfahren, durch die der Schutz personenbezogener Daten sichergestellt und der Nachweis dafür erbracht wird, dass diese Verordnung eingehalten wird“.
Es stellen sich also die Fragen: „Was will ich überhaupt und warum will ich das?“, „Muss das überhaupt sein?“, „Was kann passieren?“ und „Wie zur Hölle kriege ich es hin, dabei keinen Mist zu bauen?“ Das ist eigentlich schon alles! Beim Keinen-Mist-bauen-Punkt könnte zum Beispiel eine „Ich-hau-der-KI-die-Mist-baut-auf-die-Finger“-KI zum Einsatz kommen, also eine Datenschutz-Prüf-KI. Diese Nanny-KI wäre sicher nicht sehr beliebt bei ihren KI-Kollegen, aber weil die eh alle keine Gefühle haben, wäre das total wurscht! Bleibt nur noch die Frage: „Quis custodiet ipsos custodes?“ – zu Deutsch: „Wer wird die Wächter selbst bewachen?“ Tja, da müsste dann wohl eine Datenschutz-Prüf-Prüf-KI her – usw.
Um also nochmal auf die Frage zurückzukommen: Bremst die DSGVO KI aus? Ja! Aber was sein muss, muss nun mal sein und gänzlich blöde wird sie auch nicht bleiben, nur weil eine Nanny aufpasst…