AlgorithmWatch Logo

FOLGENABSCHÄTZUNGS-TOOL – DE [V6 – current]

Checkliste 1 & Checkliste 2, Stand vom 07.01.2025

Zweck des Tools

Algorithmische und auf Künstlicher Intelligenz (KI) beruhende Systeme haben Auswirkungen auf Menschen und auf Gesellschaften, die ethisch relevant sein können. Deswegen tragen diejenigen, die die Systeme einsetzen, eine besondere Verantwortung. Dieses Instrument zur Folgenabschätzung ist eine Methode, um Anwender*innen zu einem verantwortungsvollen Umgang mit algorithmischen Systemen zu befähigen.

Dieses Folgenabschätzungs-Tool Teil B besteht aus zwei Teilen:

  1. Triage: In einem ersten Schritt werden mittels der Triage-Checkliste die möglichen ethisch relevanten Auswirkungen bestimmt, die das algorithmische System mit sich bringt und die dokumentiert werden sollten. Damit stellen Sie fest, ob für das betreffende algorithmische System überhaupt ein Transparenzbericht verfasst werden muss und wenn ja, welche Fragen darin zu beantworten sind.
  2. Transparenzbericht: In einem zweiten Schritt beantworten Sie die Fragen, die mit Hilfe der Triage-Checkliste als relevant identifiziert wurden. Sie deklarieren, welche Ziele Sie mit der KI-Anwendung verfolgen und ob diese Ziele ethisch rechtfertigbar sind; welche ethisch relevanten Auswirkungen sie haben könnte; wie Sie dies messen; welche Massnahmen Sie ergreifen, um Ihre Ziele zu erreichen, und ob diese ethisch vertretbar sind. Die Zusammenstellung dieser Antworten ergibt einen Transparenzbericht, der intern sowie extern Transparenz schafft und dadurch Kontrolle und Rechenschaftspflicht ermöglicht.

Leitfaden für die Verwendung des Folgenabschätzungs-Tools:

→ Wann sollen wir das Tool ausfüllen? Wir empfehlen, so früh wie möglich – optimalerweise bereits bei der Planung des Projektes – damit zu beginnen, diesen Fragebogen zu beantworten, um einen aktiven Reflexionsprozess in Gang zu setzen. Ihre Antworten können Sie dann während der Umsetzung laufend überarbeiten und erst nach der Implementierung des Systems vollständig abschliessen. Dies stellt sicher, dass relevante Informationen in geeigneten Phasen gesammelt werden.

→ Wie beantworten wir die Fragen im Tool? Ihre Antworten sollten vollständig und auch für nicht im Projekt involvierte Stellen verständlich und nachvollziehbar sein. Ob Sie sich bei Checkliste 2 für stichwortartige Antworten oder Fliesstext entscheiden, ist Ihnen überlassen. Da Sie die Antworten während des Prozesses laufend überarbeiten können, ist es auch gut möglich, mit präzisen Stichworten zu beginnen und diese später auszuformulieren. Das Tool soll Ihnen helfen, dass Sie das entsprechende System verantwortungsvoll anwenden – entsprechend liegt es an Ihnen, sicherzustellen, dass der resultierende Transparenzbericht dieser Funktion gerecht wird.

→ Wem zeigen wir den daraus resultierenden Transparenzbericht? Um eine verantwortungsvolle Nutzung sicherzustellen, empfehlen wir, den Transparenzbericht gegenüber relevanten Stellen transparent zu machen. Dies erfüllt zwei Funktionen: Erstens wird Ihr eigener Anspruch an die Antworten im Transparenzbericht erhöht. Zweitens ermöglicht Transparenz den relevanten Stellen Aufsichts- und Kontrollmöglichkeiten, was wesentliche Elemente einer verantwortungsvollen Nutzung sind.

→ Wie gehen wir mit ethischen Herausforderungen um? Falls Sie als verantwortliche Anwender*innen nicht in der Lage oder bereit sind, die festgestellten ethischen Probleme angemessen zu lösen, sollten sie den Einsatz des spezifischen algorithmischen Systems neu bewerten oder zusätzliche Ressourcen bereitstellen, um Lösungen für die ethischen Herausforderungen zu finden.

→ Wann müssen wir die Anwendung neu bewerten? Wenn nach der Implementierung wesentliche Änderungen am System oder an Ihren internen Prozessen vorgenommen werden, ist eine erneute Beantwortung der Checklisten erforderlich, um sicherzustellen, dass die ursprünglichen Einschätzungen weiterhin gültig bleiben.

→ Garantiert uns das Tool auch rechtliche Compliance und macht es den Aufbau von KI-Expertise hinfällig? Beim vorliegenden Tool handelt es sich nicht um einen rechtlichen Compliance-Checker und es ersetzt nicht die wichtige Aufgabe, dass Sie als Anwender*in die Einhaltung rechtlicher Anforderungen sicherstellen müssen. Das Tool macht zudem nicht die diversen anderen Aspekte (z.B. Expertise, Ressourcen, Schulungen) hinfällig, die es für eine verantwortungsvolle Nutzung von algorithmischen Systemen braucht.

→ Können wir das Tool frei nutzen? AlgorithmWatch stellt dieses Impact Assessment Tool zur freien Nutzung zur Verfügung. Wenn Sie sich dabei begleiten lassen möchten oder Fragen haben, wenden Sie sich an info@algorithmwatch.ch (Schweiz) oder info@algorithmwatch.org (Deutschland). Andernfalls freuen wir uns auch über Unterstützung in Form von Spenden – an AlgorithmWatch CH (Schweiz) oder AlgorithmWatch (Deutschland).

→ Ist das Tool auch noch in anderen Sprachen verfügbar? Ja, das Tool ist auch in Englisch verfügbar.

Checkliste 1: Transparenz-Triage für algorithmische Systeme

Die Triage-Checkliste identifiziert mögliche ethisch relevante Auswirkungen, die das algorithmische System mit sich bringt und die dokumentiert werden sollten. Damit stellen Sie fest, ob ein Transparenzbericht verfasst werden muss und wenn ja, welche Fragen darin zu beantworten sind.

Hinweis: Eine solche Checkliste kann nie vollständig alle potenziellen Auswirkungen für alle Kontexte umfassen (es können andere Risiken für Menschen, Vermögenswerte und die Gesellschaft als Ganzes bestehen, die hier nicht erwähnt werden). Es handelt sich vielmehr um eine prozessorientierte Arbeitshilfe, die Verantwortung, ethische Herausforderungen zu minimieren, verbleibt jedoch bei Ihnen als Anwender*innen.

[1.1a] Datenschutz: Verarbeitet das algorithmische System sensible Kategorien personenbezogener Daten im Sinne der geltenden Rechtsnormen?
Hinweis: Reflektieren Sie, welche Daten von Nutzenden in das System eingespeist werden. Können sich darunter “besonders schützenswerte” (gemäss Art. 5c des schweizerischen Datenschutzgesetzes) oder “besondere Kategorien” (gemäss Art. 9 EU-Datenschutzgrundverordnung) personenbezogener Daten befinden?
[1.1b] Könnte der Inhalt, der vom algorithmischen System generiert wurde, bzw. eine Empfehlung, Vorhersage oder Entscheidung, die vom algorithmischen System beeinflusst wurde, Auswirkungen auf die Privatsphäre oder das Privatleben der Menschen, einschliesslich ihres Familienlebens, haben?
[1.2] Cybersicherheit: a) Haben böswillige Akteure ein besonders grosses Interesse, das algorithmische System zu hacken? b) Könnte das gehackte System genutzt werden, um einen finanziellen Gewinn erzielen – auch durch Erpressung? c) Oder kann ein gehacktes System genutzt werden, um politische Ziele zu erreichen (etwa, um politischen Widerspruch gegen das System zu äussern)?
[1.3] Individuelle Entscheidungen: Wird das algorithmische System verwendet, um Entscheidungen über Menschen zu beeinflussen – entweder vollautomatisiert (System trifft Entscheidungen ohne menschliche Überprüfung) oder teilautomatisiert (System stellt Empfehlungen, Prognosen oder andere Inputs bereit, die die finale Entscheidung beeinflussen)?
Hinweis: Antworten Sie in beiden Fällen mit “Ja” – sowohl wenn Ihr System vollautomatisiert Entscheidungen trifft als auch wenn es Entscheidungen durch Vorhersagen, Prognosen oder andere Inputs teilautomatisiert beeinflusst.
[1.4] Gesetzliche Ansprüche: Wird das System verwendet, um eine Entscheidung über eine gesetzliche Pflicht oder ein Recht einer Person zu treffen, zu empfehlen, vorherzusagen oder anderweitig zu beeinflussen? Wird es verwendet, um Inhalte zu generieren, die sich auf eine gesetzliche Pflicht oder ein Recht einer Person auswirken können?
[1.5] Könnte die Nutzung des algorithmischen Systems sich wesentlich auf Einzelpersonen auswirken? Welche der folgenden Szenarien wären grundsätzlich denkbar (unabhängig davon, ob es sehr realistisch oder eher unwahrscheinlich ist)?
Hinweis: Bedenken Sie dafür die in Teil A genannten Stakeholder. Für die Beantwortung dieser Triage-Frage ist noch keine ausführliche juristische Einschätzung notwendig; es geht um Ihre erste Einschätzung. Versuchen Sie deshalb, sie ohne weiteren Aufwand mit Hilfe Ihres Projektteams zu beantworten.
[1.6-9.] Individuelle Auswirkung des Inhalts, der vom algorithmischen System generiert wurde bzw. der Empfehlung, Vorhersage oder Entscheidung, die vom algorithmischen System beeinflusst wurde
Hinweis: Bei dieser Frage geht es um die Auswirkungen von vom algorithmischen System generierten Inhalten (wie Texte, Bilder, Videos, oder Audiodateien) oder von vom algorithmischen System beeinflussten Vorhersagen, Empfehlungen oder Entscheidungen. Reflektieren Sie, ob diese Outputs vermieden, rückgängig gemacht oder kompensiert werden können, und wählen Sie die entsprechende Antwortoption an. Wenn keine der Optionen zutrifft, kreuzen Sie keine der Optionen an.
[1.10] Betrifft die vom algorithmischen System getroffene Empfehlung, Vorhersage oder Entscheidung oder der vom System generierte Inhalt einen der folgenden Lebens- oder Gesellschaftsbereiche?
Hinweis: Kreuzen Sie die zutreffenden Antworten an. Es sind mehrere Antworten möglich.
[1.11] Wenn das von der öffentlichen Verwaltung verwendete algorithmische System (ganz oder teilweise) an einen privaten Dritten delegiert wird oder werden würde, führt dies zu einem Abbau von …?
Hinweis: Diese Frage ist nur relevant für öffentliche Verwaltungen. Reflektieren Sie, welche Auswirkungen eine Auslagerung haben könnte und greifen Sie dabei gegebenenfalls auf die Einschätzung entsprechender Expert*innen Ihrer Organisation zurück. Kreuzen Sie die zutreffenden Antworten an. Es sind mehrere Antworten möglich.
[1.14-15] Algorithmische Fairness
Hinweis: Ein statistisches Proxy-Risiko besteht, wenn ein System Menschen aufgrund von Merkmalen bewertet, die stellvertretend für andere, möglicherweise auch sensible Eigenschaften ihrer Person stehen können: So können etwa Hobbies Indikatoren auf die Geschlechtsidentität geben oder die Anzahl an Jahren Berufserfahrung ein Indikator für das Alter einer Person sein (siehe Erklärvideo)

. Das Risiko der strukturellen Unregelmässigkeit tritt typischerweise bei kontinuierlich lernenden Systemen auf, d. h. bei Entwürfen, bei denen sich das Modell ständig ändert, und zwar als Reaktion auf das Lernen aus den Interaktionen während der eigentlichen Implementierung (und nicht nur in der Schulungs- und Testphase). Wenn Sie dies selbst nicht einschätzen können, ziehen Sie entsprechende Expert*innen aus Ihrer Organisation hinzu.

Autonomie

[1.16] Vollautomatische Entscheidungen: Wird das algorithmische System verwendet, um eine Entscheidung über eine Person zu treffen, ohne jegliche menschliche Kontrolle, Überprüfung oder Anpassungsmöglichkeiten im Vorfeld der Entscheidung?
[1.17] Komplexitätsrisiko: Verarbeitet das algorithmische System Parameter, Merkmale, Faktoren oder Entscheidungskriterien, die normalerweise nicht für die zu lösende Aufgabe berücksichtigt werden?
Hinweis: Vergleichen Sie, welche Parameter, Merkmale, Faktoren oder Kriterien die meisten Expert*innen normalerweise berücksichtigen, um die entsprechende Aufgabe zu lösen. Beispiel: Wenn ein Algorithmus zur Aufdeckung von Steuerbetrug neue Kriterien zur Auswahl von Steuerbetrugsverdächtigen einführt, die noch nie zuvor verwendet wurden, wählen Sie „Ja“.
[1.18] Anzweiflungs-Risiko: Könnte es sein, dass die Benutzer*innen, die mit den Ergebnissen des Systems umgehen, nicht ausreichende Fähigkeiten, Befugnisse, Autorität oder Ressourcen haben, den algorithmisch generierten Inhalt, die Vorhersage, die Empfehlung oder die Entscheidung in Frage zu stellen?
Hinweis: Wählen Sie Ja, wenn denjenigen, die das System nutzen, entweder die Zeit oder die Prozesse oder die Expertise oder die Erlaubnis fehlen, um den Output des Systems zu hinterfragen. Es reicht, wenn Ihnen einer dieser Aspekte fehlt.
[1.19] Externe Infrastruktur: Ist das algorithmische System auf die Infrastruktur Dritter angewiesen, über die Sie als Anwender*innen keine uneingeschränkte Kontrolle und/oder Zugriff haben, z. B. Datensätze, Server oder Rechenleistung?
Hinweis: Wenn Sie sich bei dieser Frage nicht sicher sind, ziehen Sie entsprechende Expert*innen Ihrer Organisation hinzu.

Generative KI

[1.20N] Nutzen Sie generative KI für folgende Zwecke?
Hinweis: Generative KI ist in der Lage, aus Eingabeaufforderungen, sogenannten “Prompts”, völlig neue Inhalte (Text, Bilder und/oder audiovisuelle Inhalte) zu erzeugen. Kreuzen Sie die zutreffenden Antworten an. Es sind mehrere Antworten möglich.
[1.21N] Haben Sie ein quelloffenes oder anpassbares KI-Modell für die Verwendung in einem generativen KI-Tool modifiziert und angepasst (z. B. Feinabstimmung der Ergebnisse auf der Grundlage eines der GPT-Modelle von OpenAI oder Anpassung eines quelloffenen Modells wie des Llama-Modells von Meta)?
[1.22N] Haben Sie intern generative KI-Tools entwickelt?

Zusätzliche Kontrolle

Glauben Sie, dass das Projekt zusätzliche ethische, gesellschaftliche oder anderweitige Fragen aufwirft, die nicht durch eine technische oder rechtliche Betrachtung zu beantworten sind?

Ergebnis: Sie müssen einen Transparenzbericht verfassen.

Bitte bestätigen Sie das Ergebnis der Triage-Checkliste, indem Sie oben im Dropdown-Menü „Bestätigen“ auswählen. Dadurch werden die spezifischen Abschnitte des Transparenzberichts (Checkliste 2) geöffnet, die Sie gemäss Ihren Antworten auf die Triage-Fragen (Checkliste 1) ausfüllen müssen. Bitte lesen Sie die Anweisungen unter den Antwortfeldern sorgfältig durch.

Checkliste 2: Transparenzbericht

In dieser zweiten Checkliste deklarieren Sie, welche Ziele Sie mit der KI-Anwendung verfolgen und auf welchen Werten dies basiert, welche ethisch relevanten Auswirkungen sie haben könnte, wie Sie dies messen und welche Massnahmen Sie ergreifen, um Ihre Ziele zu erreichen. Der Fragebogen ist individualisiert und konzentriert sich auf die zentralen ethischen Fragestellungen, die zuvor in der Triage-Checkliste identifiziert wurden. Die Zusammenstellung dieser Antworten ergibt einen Transparenzbericht, der intern sowie extern Transparenz schafft und dadurch Kontrolle und Rechenschaftspflicht ermöglicht.

Der Transparenzbericht folgt folgender Struktur (drei Abschnitte):

  1. – Ziele deklarieren: Welche Ziele verfolgen sie mit und bei der Implementierung des Systems und auf welchen Werten, Prinzipien und ethischen Rahmenbedingungen basiert dies?
  2. – Methoden deklarieren, um Erreichung dieser Ziele zu messen: Wie messen Sie, ob Sie die oben deklarierten Ziele erreichen?
  3. – Resultate deklarieren: Was haben Ihre Messungen ergeben, d.h. wie performt das System in Hinblick auf Ihre oben deklarierten Ziele?

Abschnitt 1: Ziele

Fragen 2.1 bis 2.6 der Checkliste: Versuchen Sie diese Fragen zu beantworten, bevor Sie das algorithmische System entwerfen. Sie können zu einem späteren Zeitpunkt zu ihnen zurückkehren und prüfen, ob Sie Ihre Antworten überarbeiten müssen. Stellen Sie jedoch sicher, dass die alten Antworten und damit die bisherigen Methoden und Prozesse für die Mitglieder Ihrer Organisation auffindbar und nachvollziehbar bleiben.

Werte-Transparenz

In diesem Abschnitt geht es darum, dass Sie transparent machen, worum es bei dem System geht, welche Probleme Sie damit lösen möchten, welche Ziele Sie damit verfolgen und welchen ethischen Einschränkungen dies unterliegt.
Leitfaden: Geben Sie hier eine kurze Einführung in das algorithmische System, einschliesslich seiner Bezeichnung, seiner technischen Funktionsweise und einer allgemeinen Übersicht. Dies sollte ein klares und prägnantes Bild davon vermitteln, worum es bei dem System geht und wie es auf technischer Ebene funktioniert. Versuchen Sie aber, sich kurz zu halten, um die wesentlichen Punkte darzustellen. Eine Beantwortung mittels Bullet Points oder Stichworten ist möglich.

Empfohlener Gegencheck mit: Projektteam

Lassen Sie Ihren Antwortentwurf gegebenenfalls vom Projektteam prüfen, um sicherzustellen, dass alle relevanten Perspektiven vorhanden sind.

Leitfaden: Definieren Sie das spezifische Problem oder die Herausforderung, das Sie mit dem algorithmischen System zu lösen beabsichtigen. Die Beschreibung sollte detailliert genug sein, um ein Verständnis des Arbeitsgebiets und des Kontexts zu vermitteln, in dem das System betrieben werden soll.

Empfohlener Gegencheck mit: Projektteam

Lassen Sie Ihren Antwortentwurf gegebenenfalls vom Projektteam prüfen, um sicherzustellen, dass alle relevanten Perspektiven vorhanden sind.
Leitfaden: Beschreiben Sie hier den beabsichtigten Zweck des algorithmischen Systems und die Ergebnisse, die Sie mit dem System erreichen möchten. Seien Sie hier möglichst präzise, kurz und bündig, denn es ist wichtig, diese Ziele explizit zu formulieren und genau anzugeben, welche Ergebnisse das System hervorbringen soll (dazu können etwa Effizienz- oder Leistungsverbesserungen, Entscheidungsunterstützung, Automatisierung von Aufgaben, Kostensenkung, Personalzufriedenheit, Qualitätssicherung, usw. gehören). Wenn es mehrere Ziele sind, können Sie auch eine Aufzählungsliste verwenden.

Empfohlener Gegencheck mit: Projektteam

Wenn diese Ziele nicht schon explizit formuliert vorliegen, kann es sinnvoll sein, zur Beantwortung dieser Frage nochmals mit dem Projektteam zusammenzukommen, um sich auf die explizite Formulierung der Ziele zu einigen.

Ethische und rechtliche Anforderungen sowie Umgang mit potenziellen negativen Auswirkungen des Systems

In diesem Abschnitt machen Sie transparent, welche ethischen und rechtlichen Anforderungen das System erfüllen muss, welche potenziellen Schäden oder Rechtseingriffe entstehen könnten und wie ihnen begegnet wird.
Leitfaden: Erläutern Sie bei dieser Frage, welche rechtlichen und nicht-rechtlichen Richtlinien oder Vorgaben auf das System und seine hier formulierten Ziele anwendbar sind. Dabei kann es sich um unverbindliche interne Guidelines, interne Prozessvorgaben, externe Guidelines oder rechtliche Vorgaben handeln.

Empfohlener Gegencheck mit: relevanten internen Expert*innen

Konsultieren Sie interne Expert*innen (z.B. Controlling, Rechtsabteilung, die entsprechende thematisch zuständige Abteilung, etc.), um diese Frage zu beantworten. Halten Sie sich kurz – eine Beantwortung mittels Stichworten und Aufzählung reicht.
Leitfaden: Beschreiben Sie kurz und bündig, welche personenbezogenen Daten verarbeitet werden, welche Abklärungen hinsichtlich Datenschutz Sie unternommen haben und welche allgemeinen Datenschutzziele und -standards Sie verfolgen.

Wie definieren und schützen Sie die Privatsphäre von vom algorithmischen System betroffenen Personen? Erklären Sie, welche Aspekte der Privatsphäre betroffen sind und beachten Sie verschiedene Arten von Risiken für die Privatsphäre (z.B. Einzelpersonen können neue über sie produzierte Informationen schlechter kontrollieren; vertrauliche Informationen über Einzelpersonen könnten der Öffentlichkeit oder unerwünschten Parteien preisgegeben werden; es könnten zu viele Verbindungen zwischen Lebensbereichen entstehen, die die Menschen lieber voneinander getrennt halten möchten (z. B. Sport, Gesundheit, Familie, Freundschaft, Beruf, Politik, Religion, Wohltätigkeitsarbeit usw.). Erklären Sie dann, wie Ihre Überlegungen zur Privatsphäre die Entscheidung beeinflusst haben, das algorithmische System für bestimmte Zwecke zu verwenden bzw. nicht zu verwenden oder bestimmte Inputdaten auszuklammern. Bitte gehen Sie bei dieser Frage speziell auf die in Checkliste 1 – Frage 1.1 genannten Themen ein.

Empfohlener Gegencheck mit: Datenschutzverantwortlichen

Um diese Frage zu beantworten, müssen Sie sich gegebenenfalls an die für Datenschutz verantwortliche Stelle Ihrer Organisation wenden bzw. Ihren Antwortentwurf von dieser prüfen lassen.
Leitfaden: Bitte gehen Sie bei dieser Frage speziell auf die in Checkliste 1 – Frage 1.2 genannten Themen ein. Beschreiben Sie, welche Cybersicherheitsrisiken bestehen (Haben böswillige Akteure ein besonders grosses Interesse, das algorithmische System zu hacken? Könnten sie damit einen erheblichen finanziellen Gewinn erzielen – auch durch Erpressung? Oder kann ein gehacktes System genutzt werden, um politische Ziele zu erreichen?). Beschreiben Sie die spezifischen Anforderungen im Cybersicherheitsbereich, die Sie haben, sofern relevant.

Empfohlener Gegencheck mit: Cybersicherheitsverantwortlichen

Um diese Frage zu beantworten, müssen Sie sich gegebenenfalls an die für Cybersicherheit verantwortlichen Stellen Ihrer Organisation wenden bzw. Ihren Antwortentwurf von diesen prüfen lassen.
Leitfaden: Bitte erklären Sie, was Sie als faire Behandlung von Personen, die vom System betroffen sind, erachten. Gehen Sie dann darauf ein, ob und wie Ihr System unfaire Auswirkungen auf verschiedene Gruppen oder Personen haben und/oder auf unfaire Weise in Ihre Grundrechte eingreifen könnte.

Beachten Sie ausserdem ggf. die in Checkliste 1 – Fragen 1.14 bis 1.15 erwähnten Themen (Statistisches Proxy-Risiko: Werden Vorhersagen auf der Grundlage menschlicher Verhaltensmerkmale oder persönlicher Merkmale getroffen?; Risiko der strukturellen Ungleichmässigkeit: Lernt das System kontinuierlich und passt seine Reaktionen auf der Grundlage neuer Erkenntnisse und Interaktionen während der Nutzung an oder ist es möglich, dass es unterschiedliche Entscheidungen für zwei Fälle trifft, die sich nur im Zeitpunkt der Entscheidung unterscheiden?).

Antworten Sie hier kurz und präzise.

Empfohlener Gegencheck mit: Ethikverantwortlichen

Um diese Frage zu beantworten, müssen Sie sich gegebenenfalls Unterstützung holen bei Personen, die für die Fairness des Systems verantwortlich sind (und die das entsprechende technische, ethische und rechtliche Verständnis haben, um die Frage zu beurteilen) bzw. Ihren Antwortentwurf von diesen prüfen lassen.
Leitfaden: Beschreiben Sie bei dieser Frage die Anforderungen, die Erklärungen erfüllen müssen, die die Ergebnisse des Systems erklären. Was sind die Inputs und Outputs von Vorhersagen oder Entscheidungen und von wem wird erwartet, sie zu verstehen? Warum ist Erklärbarkeit in diesem Zusammenhang wichtig? Wer muss was und zu welchem Zweck verstehen? Wer sollte in der Lage sein, Fehler von gültigen Outputs zu unterscheiden, um die Vertrauenswürdigkeit zu gewährleisten? Welche Art von Erklärungen wären wichtig? Kann der Output verwendet werden, auch wenn der Grund für den Output nur unzureichend verstanden wird? Bitte gehen Sie speziell auf die in Checkliste 1 – Fragen 1.17 und 1.18 genannten Themen ein (Komplexitätsrisiko; Anzweiflungsrisiko).

Versuchen Sie, sich kurz zu halten.

Empfohlener Gegencheck mit: Projektteam

Falls Sie unsicher sind, überlegen Sie, wer Ihnen bei der Beantwortung helfen könnte und fragen Sie gegebenenfalls im Projektteam nach.
Leitfaden: Erklären Sie, wie Sie Outputs generativer KI als KI-generierte Inhalte erkennbar machen. Bewerten Sie den aktuellen Kenntnisstand bzgl. generativen Algorithmen/KI (u.a. die Aktualität und die Qualität von bereitgestellten Schulungsmaterialien zu diesem Thema, die langfristigen Pläne für die Einführung generativer KI, die Einbindung von Expert*innen, die Strukturen zur Erkennung und Beseitigung von Fehlern und die Nutzungsrichtlinien, etc.).

Empfohlener Gegencheck mit: Projektteam

Lassen Sie Ihren Antwortentwurf gegebenfalls von Personen des Projektteams prüfen, die mit diesen Themen betraut sind.
Leitfaden: Beziehen Sie sich bei dieser Frage auf Ihre Antworten bei Checkliste 1 – Fragen 1.5 und 1.10. Erläutern Sie, wie sich das algorithmische System auf die relevanten Bereiche des Lebens von Menschen auswirkt. Versuchen Sie, sich trotz des komplexen Themas kurz und präzise zu halten. Sie müssen diesen Abschnitt auch ausfüllen, wenn das System Entscheidungen über Personen „von besonderer Tragweite“ trifft (in dem Sinne, dass alle Antworten auf die Fragen 1.6, 1.7, 1.8 und 1.9 verneint wurden. Bitte erläutern Sie in diesem Fall, warum keine der dort genannten wirkungsmindernden Strategien (1.6, 1.7, 1.8 oder 1.9) umsetzbar ist).

Empfohlener Gegencheck mit: Expert*innen für Ethik und Recht

Um diese Frage zu beantworten, lassen Sie sich von Personen Ihrer Organisation beraten, die das entsprechende ethische und rechtliche Verständnis haben.
Leitfaden:

Haben Sie sich Ziele gesetzt und/oder Richtlinien und Anforderungen definiert bezüglich der Umweltverträglichkeit des Systems? Haben Sie die Absicht, die Umweltverträglichkeit des Systems bezüglich folgender Aspekte zu messen – und wenn ja, wie?

  • 1. Energieverbrauch (während der Entwicklung und Anwendung des algorithmischen Systems)
  • 2. CO2- und weitere Treibhausgasemissionen
  • 3. Indirekter Ressourcenverbrauch (z.B. Produktion und Entsorgung)

Weitere Informationen und Guidelines zur Umweltverträglichkeit von KI-Systemen: Schritt für Schritt zu einer nachhaltigen KI

Selbstbewertungstool zur Nachhaltigkeit von KI-Systemen: SustAIn-Bewertungstool

Empfohlener Gegencheck mit: Nachhaltigkeitsverantwortlichen. Um diese Fragen zu beantworten, lassen Sie sich von den entsprechenden Stellen Ihrer Organisation beraten, die an der Schnittstelle von IT und ökologischer Nachhaltigkeit arbeiten.
Leitfaden: Geben Sie folgende Informationen an und erklären Sie Ihre Ziele und Beschränkungen, falls vorhanden:
  1. Marktvielfalt: Setzen Sie ein System eines marktbeherrschenden Anbieters ein? Sind damit Risiken/Abhängigkeiten verbunden? Weitere Informationen zu diesen Fragen finden Sie unter: Step-by-Step Towards Sustainable AI
  2. Arbeitsbedingungen und Jobs: Welche Auswirkungen sind bei einem Einsatz des algorithmischen Systems am Arbeitsplatz auf die Beschäftigten zu erwarten und welche Massnahmen haben Sie ergriffen, um negative Folgen zu vermeiden oder zu kompensieren? Was wissen Sie über die Arbeitsbedingungen vor, während und nach der Entwicklung des Systems?
  3. Empfohlener Gegencheck mit: Externer Anbieter und/oder interne Kontaktperson zu Anbieter

Leitfaden: Dokumentieren Sie hier die beabsichtigte Funktionalität und die spezifischen Anforderungen, die in die Gestaltung oder die Feinabstimmung eines vorhandenen generativen KI-Modells eingeflossen sind. Welche spezifischen Funktionen eines generativen KI-Systems haben Sie implementiert oder geändert? Dokumentieren Sie auch die anerkannten Modellbeschränkungen und Nutzungsanweisungen. Beispiel: Wenn ein Softwareprodukt auf einem kommerziellen oder Open-Source-Modell beruht (z.B. ChatGPT von OpenAI oder Llama von Meta) und Anpassungen für den spezifischen Use Case vorgenommen wurden, dann sollten Sie hier die zusätzlichen Funktionen oder zusätzlichen Einschränkungen angeben, die Sie eingebaut haben (oder haben einbauen lassen).

Gegencheck mit: Verantwortliche für Entwicklung / CTO

Verantwortlichkeit/Transparenz

In diesem Abschnitt geht es darum, Verantwortlichkeiten rund um Ihr algorithmisches System transparent zu machen.
Leitfaden: Wer ist in Ihrer Organisation für das Design des algorithmischen Systems verantwortlich (auf Ebene der Projektorganisation)?

Wer ist im Falle der Beschaffung eines extern entwickelten Modells für die Definition und Kommunikation von Designspezifikationen und -anforderungen verantwortlich? Mit welchen Verfahren werden die Designentscheidungen und der Entwicklungsprozess des algorithmischen Systems dokumentiert?

Wie wurden Beschäftigte und andere Stakeholder, für die das algorithmische System relevant ist, in Designentscheidungen einbezogen?

Haben Designer*innen und Entwickler*innen Bildungs- oder Sensibilisierungsmassnahmen genossen, um ihnen dabei zu helfen, sich Verzerrungen und Vorurteilen bewusst zu werden, die das System aufweisen kann?

Empfohlener Gegencheck mit: Projektteam, Tech-Verantwortliche/CTO

Beziehen Sie mindestens die Teamleitungen ein, die für die Gestaltung des algorithmischen Systems verantwortlich sind, und deren Vorgesetzte (z. B. den CTO).

Leitfaden: Wer ist für die Implementierung des Systems und seiner Ergebnisse verantwortlich (und welcher Abteilung gehört die Person innerhalb Ihrer Organisation an bzw. welche Position bekleidet sie)? Nennen Sie mindestens die Personen, die die Umsetzung des Projekts in Ihrer Organisation beaufsichtigen.

Welche Verfahren sollen sicherstellen, dass das algorithmische System in einer rechtmässigen, ethischen, sicheren und angemessenen Weise verwendet wird? Nennen Sie die Verfahren, um die Beschäftigten, für die das System relevant ist, zu informieren; um sicherzustellen, dass die Beschäftigten das System, seine Funktionsweise und Einschränkungen verstehen, um es angemessen zu nutzen; um sicherzustellen, dass die Beschäftigten dem System vertrauen können; sowie mögliche Abfederungsmassnahmen, die Sie ergriffen haben für den Fall, dass das System gewisse Aufgaben ersetzt (z.B. Umschulungen).

Welche vertraglichen Verpflichtungen bestehen bzw. haften einzelne Nutzer*innen für fehlerhafte Outputs des algorithmischen Systems?

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Wer ist dafür verantwortlich, Antworten und Rückmeldungen der Personen, die das System nutzen oder von ihm unterstützt werden, zu verwalten? Nennen Sie mindestens die Personen, die das Feedback zum System und den Widerspruch gegen das System überwachen, einschliesslich Fragen im Zusammenhang mit Voreingenommenheit, Diskriminierung und schlechter Leistung des Systems. (Mechanismen, um diese Probleme zu kennzeichnen und dokumentieren, müssen Sie hier nicht beantworten, diese beantworten Sie weiter unten).

Empfohlener Gegencheck mit: Projektteam

Abschnitt 2: Methoden, um Zielerreichung zu messen

Fragen 2.7 bis 2.19 der Checkliste: Beantworten Sie diese Fragen optimalerweise, nachdem Sie das algorithmische System getestet haben. Sie können zu einem späteren Zeitpunkt zu ihnen zurückkehren und prüfen, ob Sie Ihre Antworten überarbeiten müssen. Stellen Sie jedoch sicher, dass die alten Antworten und damit die bisherigen Methoden und Prozesse für die Mitglieder Ihrer Organisation auffindbar und nachvollziehbar bleiben.

Transparenz über Implementierung und Kontrolle

In diesem Abschnitt geht es darum, Verfahren zur Implementierung und Kontrolle des Systems transparent zu machen.
Leitfaden: Welche Methoden wurden verwendet, um die Leistung des Systems in Bezug auf sein Hauptziel (siehe Frage 2.1) zu testen und zu messen? Wie genau, belastbar, zuverlässig und effizient sind die Empfehlungen, Vorhersagen, Klassifizierungen oder Entscheidungen, die vom algorithmischen System getroffen werden?

Empfohlener Gegencheck mit: Projektteam

Lassen Sie sich bei dieser Frage von den für die Tests verantwortlichen Personen im Projektteam beraten.
Leifaden: Mit welchen Methoden wurden Stakeholder (Einzelpersonen und Gruppen) identifiziert, die direkt von den Outputs/Vorhersagen/Empfehlungen/Entscheidungen des Systems betroffen sind? Welche Methoden wurden gegebenenfalls verwendet, um Risiken und Rechte im Zusammenhang mit diesen Interessengruppen zu erkennen? Wie haben Sie beurteilt, ob es sich dabei um marginalisierte Gruppen handelt und geprüft, ob diese in ihren Grundrechten möglicherweise beeinträchtigt werden? Wenn Sie in Teil A die Stakeholder-Analyse-Methodik verwenden, reicht es aus, diese zu erwähnen. Sie müssen zudem noch nicht die Stakeholder selbst auflisten, dies folgt bei Frage 2.8.3.

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Mit welchen Methoden wurden Personen oder Gruppen identifiziert, die (i) indirekt von dem algorithmischen System betroffen sind (d.h. die anderen Risiken ausgesetzt sind als direkt Betroffene), oder Personen oder Gruppen, die (ii) allgemein von der digitalen Transformation betroffen sind (z.B. Beschäftigte, Kund*innen, Personal der öffentlichen Verwaltung)? Wie wurden dieser Personen/Gruppen oder ihre Vertreter*innen informiert und konsultiert?

Für Gruppe (i), beachten Sie auch die Stakeholder-Analyse in Teil A.

Für Gruppe (ii), berücksichtigen Sie die Auswirkungen des Wandels auf die öffentliche IT-Infrastruktur, öffentliche Datenbestände oder immaterielle Güter der öffentlichen Hand (z. B. Befugnisse und Kompetenzen – z.B. wenn interne Expert*innen durch ein kommerzielles System ersetzt werden, sodass die öffentliche Hand nicht mehr in der Lage ist, dieselben Kompetenzen intern bereitzustellen.)

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Wer sind Ihre Stakeholder? Fügen Sie eine Zusammenfassung Ihrer Antworten zu TEIL A, „Stakeholder-Analyse“ ein.

Leitfaden: Welche Methoden wurden verwendet, um das Risiko von schädlichen Auswirkungen durch vorhersehbare und unvermeidbare Fehler oder durch Ungenauigkeiten des Systems einzuschätzen (z. B. wenn das System statistische Ansätze verwendet)? Welche Verfahren gibt es, um mit den Risiken solcher Schäden umzugehen? Welche Verfahren gibt es, um mit unvorhersehbaren Systemfehlern und Fehlfunktionen umzugehen? Wie können Beschäftigte Feedback und Beschwerden über das System erfassen und dokumentieren? Wie werden diese weiterverarbeitet und wie werden die Beschäftigten über das Ergebnis informiert?

Halten Sie Ihre Antwort kurz und präzise.

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Mit welchen Methoden und Verfahren haben Sie durch generative KI erstellte Inhalte auf Verzerrungen und/oder potenziell beleidigendes Material untersucht, einschliesslich potenziell beleidigender Stereotypen (z.B.in Bezug auf mutmassliche oder zugeschriebene Herkunft und Geschlechtsidentität, Rassifizierung, sexuelle Orientierung, Fähigkeiten, Alter, Klasse oder Kultur)? Welche Verfahren gibt es und welche Massnahmen wurden ergriffen, um das Risiko solcher Inhalte zu vermeiden oder reduzieren?

Diese Frage betrifft speziell Inhalte, die durch generative KI erstellt werden. Messungen der Genauigkeit, Belastbarkeit, Zuverlässigkeit und Effizienz von Vorhersagen, Klassifizierungen, Empfehlungen und automatisierten Entscheidungen sollten demgegenüber in 2.7 enthalten sein.

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Welche Methoden haben Sie verwendet, um das Risiko von Grundrechtsbeeinträchtigungen durch das algorithmische System einzuschätzen? Haben Sie Massnahmen ergriffen, um negative Auswirkungen des algorithmischen Systems auf die Grundrechte der betroffenen Menschen (2.2.5) zu vermeiden, und sicherzustellen, dass diese Massnahmen fair, transparent und rechenschaftspflichtig sind – und wenn ja, welche?

Sehen Sie sich wann immer möglich andere Abschnitte dieses Berichts an und erläutern Sie, wie die Konzeption und das Design mit Blick auf die Themenfelder Fairness (2.2.3), Erklärbarkeit (2.2.4), Feedbackmanagement (2.5), Fehlerkorrektur (2.9) und Aufsicht (2.14) die Rechte der Stakeholder schützt.

Wichtig: Es ist nicht notwendig, hier auf die Einschätzungen bezüglich Datenschutz und Cybersicherheit einzugehen, da Sie diese bereits in 2.2.1 (Datenschutz) bzw 2.11 (Cybersicherheit) beantwortet haben bzw. beantworten werden.

Empfohlener Gegencheck mit: Projektteam und/oder ethischen bzw. juristischen Fachpersonen

Leitfaden: Welche Methoden haben Sie verwendet, um Cybersicherheitsrisiken einzuschätzen? Welche Cybersicherheits-Massnahmen sind vorhanden? Erläutern Sie, mit welchen Methoden das System vor böswilligen Interaktionen geschützt wird. Berücksichtigen Sie auch, ob Cybersicherheitsrisiken die Privatsphäre gefährden könnten.

Bitte gehen Sie konkret auf die in Checkliste 1 – Frage 1.2 genannten Themen ein.

Empfohlener Gegencheck mit: Cybersicherheitsverantwortlichen

Leitfaden: Mit welchen Verfahren wurden die Fairness des Systems definiert und allfällige Verzerrungen gemessen, getestet und überwacht? Begründen Sie Fairness-Massnahmen, die Sie ggf. ergriffen haben (z.B. aufgrund erwartbarer Unterschiede zwischen demografischen Gruppen oder aufgrund Problemen mit der Datenqualität). Beziehen Sie sich dabei auf die einzelnen in 2.2.3 beschriebenen Fairness-Anforderungen. Die in den Fragen 1.14 (statistische Proxys) und 1.15 (strukturelle Ungleichmässigkeit) erwähnten Probleme müssen bei dieser Frage explizit angesprochen werden.

Empfohlener Gegencheck mit: Ethikverantwortlichen

Um diese Frage zu beantworten, müssen Sie sich gegebenenfalls beraten lassen bei Personen, die für die Fairness des Systems verantwortlich sind (und die das entsprechende technische, ethische und rechtliche Verständnis haben, um die Frage zu beurteilen) bzw. Ihren Antwortentwurf von diesen prüfen lassen.

Leitfaden: Wie werden die Ergebnisse des Systems den Benutzer*innen und den Betroffenen erklärt? Beachten Sie dabei spezifisch die Risiken bei Checkliste 1 – Fragen 1.17 und 1.18 (Komplexitätsrisiko; Anzweiflungsrisiko) und begründen Sie auch, wie Sie Outputs erklären, wenn ein System die prozedurale Gleichmässigkeit (1.15) nicht erfüllt ist d.h. anhand desselben Inputs zu verschiedenen Zeitpunkten unterschiedliche Entscheidungen treffen kann. Bewerten Sie, ob die Anwender*innen des algorithmischen Systems über die Berechtigung, die Ressourcen (Zeit, finanzielle Ressourcen) oder die Kapazitäten verfügen, die Ergebnisse in Frage zu stellen – oder ob das Risiko besteht, dass Sie das Ergebnis aufgrund fehlender Ressourcen und Berechtigungen ungefragt akzeptieren (Risiko des Automatisierungs-Bias).

Empfohlener Gegencheck mit: Projektteam

Leitfaden:

  • Wird das System während der Nutzung kontinuierlich überwacht a) jederzeit? b) innerhalb eines bestimmten Zeitraums? c) durch welche Massnahmen? (Die dafür verantwortliche Stelle sollte in 2.5 erwähnt werden.)
  • Erörtern Sie hier, wie Sie dem Automatisierungs-Bias aktiv entgegenwirken (sofern in 2.13 enthalten).

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Werden Menschen darüber informiert, dass sie von der Vorhersage, Empfehlung oder Entscheidung eines algorithmischen Systems betroffen sind? Wenn ja, wie?

Wie können Menschen vom System beeinflusste Empfehlungen/Entscheidungen anfechten oder ablehnen? Welche Beweggründe könnten Sie haben, um Einwände gegen die Outputs des algorithmischen Systems zu erheben?

Empfohlener Gegencheck mit: Projektteam

Abschnitt 3: Resultate

Transparenz über Leistungsfähigkeit

Versuchen Sie die Fragen 2.16-2.19 zu beantworten, wenn Sie das algorithmische System testen. Sie können zu einem späteren Zeitpunkt zu ihnen zurückkehren und prüfen, ob Sie Ihre Antworten überarbeiten müssen. Stellen Sie jedoch sicher, dass die alten Antworten und damit die bisherigen Methoden und Prozesse für die Mitglieder Ihrer Organisation auffindbar und nachvollziehbar bleiben.

In diesem Abschnitt geht es darum, die Leistungsfähigkeit des Systems transparent zu machen.

Leitfaden: Wie gut funktioniert das System gemessen an den ausgewählten relevanten Kennzahlen, im Vergleich zu dem zuvor genutzten Verfahren, falls vorhanden, oder im Vergleich zu etablierten Benchmarks, falls verfügbar? Werden die im ursprünglichen Plan dargelegten Erwartungen an die Ziele, Leistung, Genauigkeit, Effektivität oder Kosteneffizienz des algorithmischen Systems erfüllt? Bewerten Sie die Leistung in Bezug auf Problemdefinition (2.1.2) und Ziele (2.1.3) und fügen Sie alle aufgetretenen (positiven und negativen) Konsequenzen an.

Geben Sie hier zudem an,

(i) was Ihre Messungen zur Fairness des Systems ergeben haben, basierend auf den bei Frage 2.12 deklarierten Methoden (falls dies auf Ihr System zutrifft und Sie diese Frage beantworten mussten);

(ii) was ihre Messungen zur Erklärbarkeit des Systems ergeben haben, basierend auf den bei Frage 2.13 deklarierten Methoden (falls dies auf Ihr System zutrifft und Sie diese Frage beantworten mussten);

(iii) was Ihre Messungen in Bezug auf die Nachhaltigkeit ergeben haben, basierend auf den unter Frage 2.2.6 deklarierten Nachhaltigkeitszielen (falls dies zutrifft).

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Welche Risiken bezüglich Sicherheit und Privatsphäre verbleiben? Können sie vernünftig eingeschätzt werden, sind sie verhältnismässig und wenn ja, warum?

Empfohlener Gegencheck mit: Datenschutz- bzw. Cybersicherheits-Verantwortlichen

Leitfaden: Bitte beschreiben Sie relevante verbleibende systematische Fehler oder mögliche Ursachen für Ungerechtigkeiten im System und erläutern Sie, warum sie nicht behoben werden können.

Es ist nicht zu erwarten, dass ein System in jeder Hinsicht fair sein kann. Die meisten Massstäbe algorithmischer Fairness stehen im Konflikt miteinander (z.B. Angleichung der Falsch-Positiv- und Falsch-Negativ-Raten und der Vorhersagegenauigkeit für positive und negative Vorhersagen) und ein System, das in einer Dimension fair erscheint, kann aus einer anderen Perspektive unfair erscheinen. Sie sollten versuchen, das System fair zu gestaslten entsprechend des Fairnesskonzepts, das Ihnen am vertretbarsten erscheint, und dieses erklären und rechtfertigen. Zudem sollten Sie transparent machen, welche Definitionen von Fairness und “Vorurteilsfreiheit” Sie nicht erfüllen.

Empfohlener Gegencheck mit: Ethikverantwortlichen

Transparenz über Evaluation

Beantworten Sie die Fragen 2.20-2.22n, nachdem Sie das algorithmische System eingeführt haben, d.h. wenn das System während seiner Nutzung überwacht wird. Sie können zu einem späteren Zeitpunkt zu ihnen zurückkehren und prüfen, ob Sie Ihre Antworten überarbeiten müssen. Wenn Sie dies jedoch tun, löschen und bearbeiten Sie nicht einfach Ihre bisherige Antwort, sondern ergänzen Sie die neue Antwortversion mit Vermerk des Datums, so dass auch die alten Antworten und damit die bisherigen Methoden und Prozesse sichtbar und nachvollziehbar bleiben.

Leitfaden: Wie hat sich das System rückblickend in Bezug auf die in 2.1 und 2.2 dargelegten Anforderungen geschlagen? Weichen die Leistungen während der Systemnutzung von den Erwartungen ab?

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Wurden während der Systemnutzung jemals Vorhersagen, Empfehlungen oder Entscheidungen des Systems in Frage gestellt … a) durch Endnutzer*innen des Systems? b) durch Betroffene des Systems?

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Traten während der Systemnutzung Fehler aufgrund eines irreführenden oder sachlich ungenauen Outputs einer generativen KI auf? Wurden Outputs einer generativen KI als potenziell schädlich gemeldet? Wie hat sich das generative KI-System für Sie als Anwender*in auf die Performance oder die Kosten ausgewirkt?

Empfohlener Gegencheck mit: Projektteam

Leitfaden: Bitte beachten Sie Abschnitt 2.2 und alle nachfolgenden Fragen, die sich auf die in 2.2 genannten ethischen Anforderungen beziehen.

Empfohlener Gegencheck mit: Projektteam und/oder Ethikverantwortlichen

Wenn Sie auf “Zwischenspeichern” klicken, werden Ihre Antworten für 360 Tage gespeichert und Sie erhalten einen Link, mit dem Sie sie weiterbearbeiten können.

Hinweis: Die von Ihnen eingegebenen Antworten sind auch für einen begrenzten Kreis von Mitarbeitenden von AlgorithmWatch und AlgorithmWatch CH einsehbar. Bitte geben Sie daher keine personenbezogenen Daten, Klarnamen oder Ähnliches in die Textfelder ein. Am Ende des Fragebogens haben Sie die Möglichkeit, Ihre E-Mail-Adresse zu hinterlassen, dies ist aber optional. Die Datenschutzerklärungen von AlgorithmWatch und AlgorithmWatch CH finden Sie hier:

  • AlgorithmWatch
  • Impressum
  • Datenschutzerklärung
  • AlgorithmWatch CH
  • Impressum
  • Datenschutzerklärung

Note: Your responses may be viewed by a limited group of staff members at AlgorithmWatch and AlgorithmWatch CH. Please avoid entering any personal data, full names, or similar information in the text fields. You can leave your e-mail address at the end, but this is fully optional. You can find the privacy policies of AlgorithmWatch and AlgorithmWatch CH here:

  • AlgorithmWatch
  • Imprint
  • Privacy Policy
  • AlgorithmWatch CH
  • Imprint
  • Privacy Policy

© AlgorithmWatch 2025