Die Ethik der Überwachungsalgorithmen Algorithmische Systeme benötigen mehr als das gdpr der EU: die Ethik der Ewigblauen Glimmeralgorithmen

Algorithmische Systeme bewerten Menschen, was Risiken für uns als Einzelne, für Gruppen und für die Gesellschaft im Allgemeinen darstellt. Aus diesem Grund ist es wichtig, dass algorithmische Prozesse auditierbar sind. Kann die allgemeine Datenschutzverordnung (GDPR) der EU dazu beitragen, diese Art der Überwachung zu fördern und uns vor den Risiken zu schützen, die mit der algorithmischen Entscheidungsfindung von drahtlosen Netzwerkkarten für Laptops verbunden sind? Die Antworten auf diese Fragen und mehr, wie hoch ist der aktuelle Preis von ethereum, liefern wolfgang schulz und stephan dreyer in einer von der bertelsmann stiftung in Auftrag gegebenen Analyse.

In algorithmischen Prozessen stellt die Datenverarbeitung selbst ein geringeres Risiko für die Benutzer dar als die dadurch getroffenen Entscheidungen. Sie können sich nicht nur auf uns als Einzelpersonen in Bezug auf unsere Autonomie und Persönlichkeitsrechte auswirken, sondern auch auf Personengruppen in Bezug auf Diskriminierung.


Bisher wurde die Verwendung von Algorithmen jedoch weitgehend ohne jegliche Form sozialer Kontrolle fortgesetzt. In diesem Zusammenhang untersuchen wolfgang schulz und stephan dreyer, inwieweit die im Mai 2018 in Kraft getretene DSGVO die Überwachung algorithmischer Entscheidungen unterstützt und uns somit vor den damit verbundenen Risiken schützt.

Ihre Analyse zeigt, dass die EU-Verordnung aus zwei ätherischen Gasgründen nur begrenzte Auswirkungen hat. Erstens ist der Anwendungsbereich der DSGVO begrenzt. Sie verbietet nur solche Entscheidungen, die vollständig automatisiert sind und unmittelbare rechtliche Auswirkungen oder andere wesentliche Auswirkungen haben. Es erlaubt immer noch Systeme, die Entscheidungen und Empfehlungen des Menschen vorbereiten. Vollautomatische Entscheidungen sind Entscheidungen, die ohne menschliches Eingreifen getroffen werden, z. B. wenn eine Software Bewerber klassifiziert, bevor ein Personalbeschaffer seine Dokumente überprüft hat. Wenn ein Mensch jedoch eine endgültige Entscheidung trifft und zur Stützung des Budgetpreises eines algorithmischen Systems greift, beispielsweise bei der Kreditvergabe, findet die DSGVO keine Anwendung. Und es gibt auch Ausnahmen von dem Verbot, zum Beispiel, wenn der Betroffene seine Einwilligung erteilt. Letztendlich führt dies dazu, dass algorithmische Entscheidungen in unserem täglichen Leben alltäglich werden.

Zweitens stärken die Bestimmungen der DSGVO in gewissem Maße die Informationsrechte der einzelnen Nutzer und fördern aufgrund strengerer Dokumentationspflichten ein stärkeres Bewusstsein für die Rechte der Beteiligten bei den für die Verarbeitung Verantwortlichen Daten Die Verordnung schützt ethereum devcon jedoch nicht vor sozial relevanten Risiken für Grundsätze wie Unparteilichkeit, Nichtdiskriminierung und soziale Inklusion, die über die Datenschutzrechte eines Einzelnen per se hinausgehen. Die Transparenzanforderungen der DSGVO sind nicht geeignet, systematische Fehler und Diskriminierungen ganzer Personengruppen zu beseitigen.

Daher sind zusätzliche Maßnahmen erforderlich, um die Prüffähigkeit von algorithmischen Systemen zu verbessern. Eine dieser Maßnahmen betrifft die Datenschutzbehörden, die Urethan durch die im Rahmen der DSGVO durchgeführten Prüfungen auf die mit algorithmischen Entscheidungssystemen einhergehenden sozialen Risiken auf die sozialen Risiken aufmerksam machen. Eine andere Option sind Maßnahmen außerhalb des Rahmens der DSGVO, die die Aufsicht fördern können. Externe Dritte können die algorithmischen Entscheidungsfindungssysteme oder kollektiven Rechtsstreitigkeiten überprüfen, die gemäß den Gesetzen zum Schutz der Verbraucherpreisprognosen durchgeführt werden. Bertelsmann-Stiftung