Digitalisierung, Automatisierung, KI und Recht
Festgabe zum 10-jährigen Bestehen der Forschungsstelle RobotRecht
Zusammenfassung
Dieser interdisziplinäre Sammelband mit Beiträgen aus den Wissenschaftsbereichen Philosophie, Technik und Recht würdigt die Verdienste der 2010 an der Universität Würzburg gegründeten „Forschungsstelle RobotRecht“ um eine innovationsoffene Begleitung der Technisierung durch das Recht. Der Band fußt auf interdisziplinären Überlegungen zu den technischen Entwicklungen unserer Zeit sowie den gesellschaftlichen und ethischen Grundlagen eines Zugriffs des Rechts auf technische Innovation. Den Schwerpunkt des Werks bilden Beiträge aus Rechtspraxis und (internationaler Straf-) Rechtswissenschaft zu den zivilrechtlichen, strafrechtlichen und verfahrensrechtlichen Herausforderungen, die die Technisierung mit sich bringt. Mit Beiträgen von Nikolaus Bauer, Prof. Dr. Susanne Beck, Prof. Dr. Dr. h.c. Dieter Birnbacher, Kristine Böhm, Alfons Botthof, Prof. Dr. Jörg Eisele, Sven Elter, Dr. Jochen Feldle, Peter Gabriel,Orlandino Gleizer, Prof. Dr. Armin Grunwald, Christian Haagen, Berthold Haustein, Prof. Dr. Dirk Heckmann, Desirée Heijne, Prof. Dr. Joachim Hertzberg, Prof. Dr. Su Jiang, Prof. Dr. Jan C. Joerden, Prof. Dr. Maria Kaiafa-Gbandi, Dr. Clemens Kessler, Benjamin Kisliuk, Dr. Carsten Kusche, Prof. Dr. Genlin Liang, Dr. Severin Löffler, Anna Lohmann, Annika Schömig, Pia Mesenberg, Prof. Dr. Wolfgang Mitsch, Prof. Dr. Julian Nida-Rümelin, Dr. Christoph Peylo, Prof. Dr. Frank Puppe, Prof. Dr. Tobias Reinbacher, Dr. David Roth-Isigkeit, Prof. Dr. Ronny Thomale, Stephan Scheuren, Prof. Dr. Frank Peter Schuster, Prof. Dr. Gerald Spindler, Klaus Staudacher, Stefan Stiene, Sebastian Straub, Prof. Dr. Brian Valerius, Paul Vogel, Steffen Wischmann, Nicolas Woltmann, Prof. Dr. Feridun Yenisey und Dr. John Zuluaga.
Schlagworte
- 1–14 Titelei/Inhaltsverzeichnis 1–14
- 15–152 A. Grundlagen 15–152
- 15–30 Fahrerlose Fahrzeuge – wieviel Gleichheit, wieviel Freiheit? 15–30
- A. Einleitung: Gleichheit und Ungleichheit im Straßenverkehr
- B. Automatisierter Verkehr: Wieviel Zukunft für die "freie Fahrt für freie Bürger"?
- C. Universalisierung des Car Sharing?
- D. Angleichung von Tun und Unterlassen auf der Kontroll- und Regulierungsebene
- E. Konflikte zwischen kollektiven und individuellen Werten
- F. Schluss
- 31–46 Gestaltung der digitalen Transformation. Interdisziplinäre Herausforderungen an Technikfolgenabschätzung, Ethik und Recht 31–46
- A. Einführung und Überblick
- B. Reinkarnation des Technikdeterminismus in digitalem Gewand
- C. Exemplarische Gestaltungsfelder
- I. Robotik in der Pflege
- II. Autonomes Fahren
- D. Gestaltungsansätze: Technikfolgenabschätzung, Recht und Ethik
- E. Epilog
- 47–58 Digitale Assistenten. Sprachassistenzsysteme zwischen Recht, Ethik und Informatik 47–58
- A. Sprachassistenzsysteme: das nächste Interface für die digitale Welt
- B. Rechtliche Anforderungen an den Einsatz von Sprachassistenzsystemen
- I. Datenschutzrechtliche Perspektive
- II. Haftung bei Fehlfunktionen von Sprachassistenzsystemen
- III. Transparenz beim Einsatz von Sprachassistenzsystemen
- C. Recht auf Rechtsbruch? Grenzen automatisierter Rechtsdurchsetzung
- D. Fazit: Recht braucht Informatik braucht Ethik
- 59–80 Geschützte Transparenz. Über technische und andere Voraussetzungen für die Digitalisierung der Landwirtschaft 59–80
- Zusammenfassung
- A. Problemstellung
- B. ODiL – ein technischer Ansatz und seine Begleitung durch Betrachtung rechtlicher Fragen
- I. Informationstechnische Realisierung der ODiL-Plattform
- II. Technischer Ansatz
- III. Betrachtung rechtlicher Fragen – ein Schlaglicht
- IV. Verwandte Systeme
- C. Zukunftslabor Agrar – die nächsten Schritte
- I. Datenflüsse in der Landwirtschaft
- II. Praxisorientierte Autonomisierung landwirtschaftlicher Prozesse
- III. Nachhaltigkeit durch Digitalisierung der Landwirtschaft
- D. Fazit
- Danksagung
- 81–96 Verantwortungsteilung zwischen Mensch und Maschine? 81–96
- A. Einleitung
- B. Verantwortung
- C. Verantwortung und Autonomie
- D. Haftungslücken?
- E. Zusammenfassung
- 97–120 Künstliche Intelligenz Mores lehren 97–120
- A. Vom Kellerkind zum Hoffnungsträger
- B. Das Ziel Künstlicher Intelligenz
- C. Wer hat das letzte Wort?
- D. Kann Künstliche Intelligenz auch alleine entscheiden?
- E. Die Rolle der Hersteller von KI-Produkten
- F. Wie anfällig sind KI-Systeme?
- G. Kann Künstliche Intelligenz moralisch handeln?
- H. Normen und Dilemmata
- I. Sehen und Erkennen
- II. Der Planungsprozess
- III. Die Handlungsdurchführung
- J. Zusammenfassung
- 121–132 Künstliche Intelligenz. Überblick und gesellschaftlicher Ausblick 121–132
- A. Geschichte und Überblick
- B. Neuronale Netze
- C. Gesellschaftliche Auswirkungen
- D. Blick in die Glaskugel
- 133–152 Technische Rahmenbedingungen und Rechtliche Regulierung der Digitalen Transformation 133–152
- Zusammenfassung:
- A. Einleitung: Digitale Transformation und politische Steuerung
- B. Technische Rahmenbedingungen digitaler Transformation
- I. Rechenleistung
- II. Rechen- und Speicherkosten
- III. Hardware-Innovation: Quantencomputer
- C. Technische Rahmenbedingungen als Schlüssel zur Regulierung der digitalen Transformation
- I. Systemische Risiken als Herausforderung der Technikregulierung
- II. Methoden der Technikregulierung
- 1. Forenwahl und Forensicherung
- 2. Präventive Regulierung durch Szenarienbildung
- D. Fazit
- 153–284 B. Zivilrecht 153–284
- 153–180 Digitale Technologien und Recht: aktuelle Herausforderungen im Innovationsprozess 153–180
- A. Einleitung
- B. Rechtliche Randbedingungen für den Einsatz und das Design von Drohnen
- I. Beschränkungen durch das Luftverkehrs- und Eigentumsrecht
- II. Datenschutzrecht
- III. Bildnisschutzrecht und Verletzung des allgemeinen Persönlichkeitsrechts
- IV. Urheberrecht
- V. Einfluss des Rechtsrahmens auf die Konstruktion und den Betrieb von Drohnen
- C. Haftung in der Servicerobotik
- I. Zukunftsszenarien und Einsatzpotenziale
- 1. Landwirtschaft
- 2. Intelligente Roboter in Medizin und Pflege
- 3. Weitere zukünftige Einsatzszenarien
- II. Herausforderung: die Haftung von selbstlernenden und autonomen Systemen
- D. Datenhoheit bei Maschinendaten
- I. Vertragsrecht statt Dateneigentum
- II. Herausforderung: ungleiche Machtverhältnisse
- E. Innovationspolitik und Reallabore
- F. Ein Zwischenfazit
- 181–198 Künstliche Intelligenz und kreative Erzeugnisse. Schutz von KI-geschaffenen Erzeugnissen 181–198
- A. Einleitung
- B. Die kreative Leistung einer KI und das Werk im Urheberrecht
- I. Kreative Leistung einer KI als Werk des Urheberrechts
- II. Sui-generis-Schutz des Datenbankherstellers gem. § 87a Abs. 1 UrhG
- III. Zwischenergebnisse zum urheberrechtlichen Schutz von KI-geschaffenen Werken
- C. Sonstiger Schutz von kreativen Erzeugnissen einer KI
- D. Wettbewerbsrechtlicher Nachahmungsschutz und unmittelbarer Leistungsschutz
- E. Unzureichender Schutz de lege lata
- F. Ansätze zum Schutz KI-geschaffener Erzeugnisse de lege ferenda
- 199–214 Zivilrechtliche Haftung im automatisierten Straßenverkehr – Hackerangriffe, Sicherheitserwartungen und erlaubte Nebentätigkeiten 199–214
- A. Einführung
- B. Die Haftung des Halters
- I. Verschuldensunabhängige Haftung
- II. Halterhaftung bei Hackerangriffen
- C. Haftung des Fahrers im automatisierten Verkehr
- I. Wahrnehmungsbereit trotz Abwendungsbefugnis?
- II. Die Übernahmepflicht nach § 1b Abs. 2 Nr. 2 Alt. 2 StVG
- D. Objektiv berechtigte Sicherheitserwartungen im Rahmen der Herstellerhaftung
- 215–234 Haftungsbeschränkung bei technisch nicht vermeidbaren Risiken 215–234
- A. Einleitung
- B. Technisch nicht vermeidbare Risiken
- I. Der Begriff des Risikos
- II. Maßstab der Technik
- III. Vermeidbarkeit von Risiken
- 1. Vorhersehbarkeit
- 2. Vermeidbarkeit
- 3. Die Grenze der Unvermeidbarkeit
- IV. Technische Unvermeidbarkeit
- C. Rechtliche Möglichkeiten der Haftungsbegrenzung
- I. Relevanz der Haftungsbegrenzung
- II. Einzelne Haftungsbegrenzungen
- 1. Ausschlussgründe nach dem ProdHaftG
- 2. Der Einfluss höherer Gewalt
- 3. Beschränkung auf bestimmte Rechtsgüter
- 4. Haftungshöchstsumme
- 5. Haftung nur gegenüber unbeteiligten Dritten
- 6. Mitverschulden
- 7. Ausschlussfrist
- III. Haftungsbegrenzung im Bereich des Möglichen
- D. Fazit
- 235–254 Äpfel, Birnen, Daten, Sachen – Dateneigentum am Beispiel von Immobilien 235–254
- A. Einleitung
- B. Grundentscheidungen
- I. Freiheit und Kommerzialisierung
- II. Daten und Informationen
- III. Sachenrecht und Immaterialgüterrecht
- IV. Datenrecht und Datenschutzrecht
- V. Annex: Initiale Zuweisung
- C. Beispiel
- I. Ausgangsfall
- 1. Schuldrechtliche Einordnung des Ausgangsfalls
- 2. Datenschutzrechtliche Qualifikation
- 3. Zwischenfazit zum Ausgangsfall
- II. Abwandlung I
- 1. Vertragstypologie eines Dateneigentums
- 2. Gesetzlicher Erwerb veredelter Daten
- III. Abwandlung II
- 1. Kommerzialisierung und Verkehrsfähigkeit
- 2. Schutz des Dateneigentümers
- D. Fazit
- 255–284 Haftung für autonome Systeme – ein Update 255–284
- A. Einleitung
- B. Besondere Risiken autonomer Systeme
- I. Unvorhersehbarkeit des Verhaltens durch Lernfähigkeit
- II. Vernetzung
- III. Anknüpfungspunkte
- C. Haftung nach geltendem Recht
- I. Verschuldensabhängige Haftung
- 1. Rechtsgüterbezogene Produkthaftung (§ 823 Abs. 1 BGB)
- a) Betroffene Rechtsgüter
- b) Pflichten der Betreiber, Halter und Fahrer
- c) Pflichten der Hersteller
- (1) Konstruktionsfehler
- (2) Produktbeobachtung
- d) Hersteller und „Unbundling“
- e) Pflichten und technische Standards
- f) Beweislast
- 2. Haftung für digitale Hilfspersonen (Assistenzhaftung)
- 3. Kausalität und Vernetzungsrisiko
- II. Verschuldensunabhängige Haftung
- 1. ProdHaftG
- 2. Betreiber
- D. Rechtspolitische Agenda
- 1. Grundsätze
- 2. Neue Rechtssubjekte
- 3. Gefährdungshaftung und Pflichtversicherungen als Lösung statt spezieller Roboterhaftung
- 4. Kausalität
- 5. Haftungsadressaten
- 6. Vernetzungsrisiken und kollektiver Versicherungsschutz
- 7. Verhältnis zum Aufsichtsrecht, insbesondere Produktsicherheitsrecht
- 8. Probleme des Regresses
- 9. Intermediäre
- E. Fazit
- 285–400 C. Strafrecht Allgemeiner Teil 285–400
- 285–304 Zur strafrechtlichen Verantwortlichkeit bei der Integration von (intelligenten) Robotern in einen Geschehensablauf 285–304
- A. Zur Einführung: Der Lift-Fall
- B. Menschen mit Freiheit und Autonomie?
- C. Zurechnung bei der Involvierung von Robotern
- D. Koexistenz von Mensch und intelligentem Roboter – und drei Fälle
- I. Noch einmal: Der Lift-Fall
- II. Der Auto-Auto-Fall
- III. Der Drohnen-Fall
- 305–328 Artificial intelligence as a challenge for Criminal Law: in search of a new model of criminal liability? 305–328
- A. Artificial intelligence as a challenge for law: current scope and significance
- B. AI and Criminal Law: an initial approach to the emerging concerns and their significance
- C. Conceptual clarifications and key issues in the field of substantive criminal law
- D. Criminal liability for harm caused by the use of AI systems in the framework of existing law
- I. Selection of the theoretical framework
- II. Identifying the structural elements of criminal negligence in cases of harm caused by the use/operation of AI systems
- 1. Objectively negligent act and causality in cases of harm caused by the use/operation of AI systems
- 2. Defense of the permissible “dangerous life” of legal interests
- 3. Subjective negligence and harmful outcomes by AI systems’ use/operation
- E. Towards a new model of ascribing criminal liability?
- 329–344 Rechtswidrigkeit der Abwehr von Drohnen über privaten Wohngrundstücken 329–344
- A. Einleitung
- B. Gesetzliche Neuregelungen
- C. Verletzung des Allgemeinen Persönlichkeitsrechts beim Drohnenflug über Wohngrundstücke
- D. Rechtswidrigkeit von Abwehrmaßnahmen der Bürger gegen Drohnen
- I. Vorgehen gegen den Drohnenpiloten
- II. Vorgehen gegen die Drohne
- 1. Notstandslage
- 2. Notstandshandlung
- 3. Verhältnismäßigkeit
- E. Fazit
- 345–364 „Digitale Transformation“ im Krankenhaus. Gesellschaftliche und rechtliche Herausforderungen durch das Nebeneinander von Ärzten und Künstlicher Intelligenz 345–364
- A. „Digitale Transformation“
- I. Aktuelle Entwicklungen in der Medizin
- II. Besonderheiten der „Digitalen Transformation“ im Krankenhaus
- III. Chancen durch Digitalisierung im Krankenhaus
- B. Künstliche Intelligenz im Krankenhaus
- I. Was ist Künstliche Intelligenz?
- II. Formen von Künstlicher Intelligenz im Krankenhaus
- 1. Datenordnung und -priorisierung
- 2. Datensammlung und -analyse
- 3. Robotik und Künstliche Intelligenz
- C. Gesellschaftliche Aspekte beim Einsatz von Künstlicher Intelligenz im Krankenhaus
- I. Bewertung des Einsatzes in der Gesellschaft
- 1. Ängste und Risiken
- 2. Vorteile und Chancen
- 3. Zwischenfazit
- II. „Letztentscheider Mensch“
- D. Strafrechtliche Verantwortung eines Arztes
- I. Grundlagen der strafrechtlichen Verantwortung des Arztes
- 1. Medizinischer Heileingriff
- a. Tatbestand einer Körperverletzung
- b. Rechtfertigung
- aa. Voraussetzungen im Einzelnen
- bb. Mutmaßliche Einwilligung
- II. Operateur: Medizinroboter
- III. Diagnosehelfer: Künstliche Intelligenz
- E. Fazit
- 365–386 Roboter und Notwehr 365–386
- A. Einleitung
- B. Grundlinien des Gedankengangs
- I. Sachverhalte
- II. Rechtliche Maßstäbe
- III. Systematische Vorgehensweise
- C. Angriffe von und mit Robotern
- I. Roboter als Instrument eines menschlichen Angriffs
- 1. Roboter als Sache
- 2. Roboter als menschenähnliches Wesen
- II. Autonom angreifender Roboter
- D. Verteidigung von und mit Robotern
- I. Rechtfertigung des mit einem Roboter verteidigenden Menschen
- II. Rechtfertigung des verteidigenden Roboters
- E. Exkurs: Notstand und Pflichtenkollision
- I. Allgemeine Rechtfertigungsthematik
- II. Rechtfertigender Notstand
- III. Pflichtenkollision
- F. Schluss
- 387–400 Künstliche Intelligenz, Automatisierung und strafrechtliche Verantwortung 387–400
- A. Einleitung
- B. Bedeutung einer strafrechtlichen Verantwortlichkeit neben zivilrechtlichen Schadensersatzansprüchen
- C. Einschlägige Straftatbestände
- D. Mögliche Adressaten einer strafrechtlichen Verantwortlichkeit und zugehörige Sorgfaltsanforderungen
- I. Das Autonome System selbst
- II. Der Betreiber/Anwender des Systems
- III. Das Herstellerunternehmen und seine Mitarbeiter
- E. Fazit
- 401–516 D. Strafrecht Besonderer Teil 401–516
- 401–420 Digitale Rekonstruktionen von „Wirklichkeit“. Social Bots und gekaufte Follower als betrugsrelevante Täuschungen 401–420
- Einleitung
- A. Schutzrichtungen und relevante Kontexte wahrheitsschützender Delikte
- B. (Intersubjektive) Rekonstruktionen von Wahrheit im Netz
- I. Identität
- II. Quantität
- III. Social Bots und gekaufte Follower
- C. Auswirkungen de lege lata
- 1. Mögliche Täuschungen durch gefälschte Produktbewertungen
- 2. Mögliche Täuschung der werbenden Unternehmen durch den Influencer
- 3. Mögliche Täuschung der eigenen Follower durch den Influencer
- D. Fazit
- 421–438 „Fake News“ – ein Fall für den Strafgesetzgeber? 421–438
- A. Einleitung
- B. Verzerrung des gesellschaftlichen Diskurses als Gegenstand und Zweck der Verbreitung von Fake News in Deutschland
- C. Die geltende Strafrechtslage in Deutschland
- I. Beleidigung, §§ 185 ff.
- II. Volksverhetzung, § 130
- D. Strafbarkeit de lege ferenda
- I. Schöpfung und Verbreitung von Fake News
- 1. Ergänzung bestehender Strafvorschriften als unzureichende Problemlösung
- 2. Herausforderungen einer spezialgesetzlichen Regelung
- a) Keine Beschränkung auf den Schutz des politischen Entscheidungsprozesses
- b) Schutz der Meinungsfreiheit oder des öffentlichen Friedens als denkbare Schutzgutkonzeptionen
- 3. Tatbestandsfragen
- a) Strafbarkeit verzerrender Darstellungen?
- b) Vorsatzfragen – oder: „subjektive Wahrheiten“
- II. Verantwortlichkeiten sozialer Netzwerke
- 439–456 Die strafrechtliche Behandlung der Verleumdung im Internet aus chinesischer Perspektive 439–456
- A. Die strafrechtliche Regulierung der Verleumdung im Internet: von der eingeschränkten bis zur ausgedehnten strafrechtlichen Verfolgung
- B. Die Verleumdungshandlung im Internet und „Verleumdung aufgrund erfundener Tatsachen“
- C. Die Formel des „Vorliegens ernster und schwerwiegender Tatumstände“ und die Anzahl des Teilens, Klickens und Lesens der Verleumdungsinformation
- D. „Vorliegen ernster und schwerwiegender Gefährdung der gesellschaftlichen Ordnung und der Interessen des Staates“ und die Reichweite der öffentlichen Anklage der Verleumdung
- 457–474 Social Bots aus strafrechtlicher Sicht 457–474
- A. Einleitung
- B. Das Phänomen der Social Bots
- C. Mögliche Straftaten nach dem Kernstrafrecht (Auswahl)
- I. Vorüberlegungen
- II. Auf Inhalte bezogene Straftaten
- III. Auf die Daten anderer Nutzer bezogene Straftaten
- IV. Auf Wahlen bezogene Straftaten
- D. Fazit und Ausblick
- 475–492 Krankschreibung per Internet. Strafbarkeit von Arbeitsunfähigkeitsbescheinigungen „auf Bestellung“? 475–492
- A. Die Lockerung des sog. Fernbehandlungsverbots und die Geschäftsidee eines StartUp-Unternehmens
- B. Wie bestelle ich eine Arbeitsunfähigkeitsbescheinigung?
- C. Strafbarkeit der Beteiligten
- I. Strafbarkeit des Arztes
- 1. Urkundenfälschung (§ 267 Abs. 1 StGB) und Fälschung beweiserheblicher Daten (§ 269 Abs. 1 StGB)
- 2. Ausstellen unrichtiger Gesundheitszeugnisse (§ 278 StGB)
- a) Täterkreis und Gesundheitszeugnis
- b) Unrichtigkeit des Gesundheitszeugnisses
- c) Subjektiver Tatbestand
- d) Ausweg: Offenlegung der fehlenden Untersuchung
- II. Strafbarkeit des Patienten
- III. Strafbarkeit des Betreibers der Webseite
- D. Fazit
- 493–516 Mobbing und Cybermobbing. Rechtslage, Handlungsbedarf und Lösungsvorschläge 493–516
- A. Einleitung
- B. Grundlagen
- I. Terminologie
- II. Besonderheiten des Cybermobbing
- C. Gegenwärtige Rechtslage
- I. Strafbarkeit des Mobbing de lege lata
- 1. Schutz der persönlichen Ehre
- 2. Schutz des allgemeinen Persönlichkeitsrechts
- 3. Schutz der persönlichen Freiheit, §§ 238 ff. StGB
- 4. Sonstige Verhaltensweisen
- II. Bewertung
- D. Würdigung des Mobbing als Gesamtphänomen
- I. Neuer Mobbing-Straftatbestand?
- II. Anpassung des § 238 StGB
- E. Fazit
- 517–604 E. Verfahrensrecht und Rechtspraxis 517–604
- 517–534 Potential und Risiken von Predictive Policing 517–534
- A. Einführung
- B. Technische Grundlagen des Predictive Policing
- I. Varianten des Predictive Policing
- II. Ansätze des raumbezogenen Predictive Policing
- C. Einsatz von Prognosesoftwares in Deutschland
- D. Vergleich mit den Systemen in der Schweiz und den USA
- I. Predictive Policing in der Schweiz
- 1. Kriminalpräventives Predictive Policing
- 2. Risikoorientierter Sanktionenvollzug (ROS) und FaST
- II. Predictive Policing in den USA
- 1. Kriminalpräventives Predictive Policing
- 2. Rückfallprognosesoftware „COMPAS“
- E. Kritische Betrachtung des Predictive Policing
- I. Erfassung personenbezogener Daten
- II. Gefahr des sog. „Racial Profiling“
- 1. „Racial Profiling“ durch Polizeibeamte
- 2. „Racial Profiling“ durch die Prognosesoftware
- III. Mangelnde Flexibilität derzeitiger Prognosesoftwares
- IV. Effektivität des Predictive Policing
- F. Fazit und Ausblick
- 535–556 Algorithmischer Kernbereichsschutz. Zum Einsatz von Künstlicher Intelligenz in der Online-Durchsuchung als Staatspflicht 535–556
- A. Einführung
- B. Die Online-Durchsuchung als strafverfahrensrechtlicher Grundrechtseingriff
- C. Das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme und sein Wesensgehalt
- I. Das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme
- II. Zum Wesensgehalt: Der Kernbereich privater Lebensgestaltung
- 1. Der Kernbereich privater Lebensgestaltung
- 2. Das zweistufige Schutzmodell des Kernbereichs privater Lebensgestaltung
- 3. Der zusätzliche Schutz des Gesetzgebers für die Online-Durchsuchung und die dynamische Pflicht des dadurch eingreifenden Staates
- D. Was ist und kann Deep Learning?
- E. Das Deep Learning bei der Online-Durchsuchung – schon eine Staatspflicht?
- I. Deep Learning bei der Verhältnismäßigkeitsprüfung
- 1. Geeignetheit und Erforderlichkeit
- 2. Vorzensur von kernbereichsrelevanten Informationen
- 3. Zufallsfunde
- II. Ist der Einsatz von Deep Learning im Rahmen der Online-Durchsuchung schon eine Staatspflicht?
- F. Schluss
- 557–590 Automatisierte Entscheidungsfindung, Strafjustiz und Regulierung von Algorithmen. Ein Kommentar zum Fall „State v. Loomis“ 557–590
- Einführung
- A. Der State v. Loomis-Fall
- I. Der Hintergrund
- II. Sachverhalt
- III. Das Urteil und die Entscheidungsgründe
- B. Kontroverse um Fall „Staat v. Loomis“
- I. Risiko der Ungenauigkeit
- II. Risiko des Bias
- III. Risiko der Transparenz
- IV. Risiko der Unerkennbarkeit algorithmischer Risiken durch Richter
- C. Eine weitere Auseinandersetzung: Interpretierbarkeit des Algorithmus und Haftungszurechnung
- I. Eine Auslegung der DSGVO-Bestimmungen: Ist Interpretierbarkeit gleichbedeutend mit dem Recht auf Interpretation?
- II. Legitimität der Interpretierbarkeitsregeln
- III. Durchführbarkeit und Gültigkeit der Interpretierbarkeitsregeln
- IV. Weitere Ideen zum Aufbau algorithmischer Transparenz und des Haftungssystems
- D. Implikationen des Falles „State v. Loomis“ für China
- I. Legislativ: Etablierung von szenariobasierten Transparenz- und Zurechungsregeln
- II. Judikativ: Verdeutlichen der Akzessorietät algorithmischer Entscheidungen
- 1. Interessenkonflikt
- 2. Der Umfang der Offenlegung
- 3. Inhalt der Offenlegung
- 4. Risiken der Offenlegung und Prävention
- 5. Ergänzende Maßnahmen
- III. Industriestandards: Aufbau ethischer und technischer Standards
- E. Fazit
- 591–604 The challenges of digital justice in Colombia. An approach based on the judicial crisis caused by COVID-19 591–604
- A. Introduction
- B. Problems in the effective implementation of digital justice evidenced during the COVID-19 quarantine
- C. Did the implementation of digitization make things better or did it make the judicial crisis worse?
- D. What did digitization mean during the judicial crisis?
- E. Rethinking the foundations of criminal justice?
- F. Conclusions
- 605–662 F. Verschiedenes 605–662
- 605–628 KI und Legal Tech. Utopie, Dystopie, Realität 605–628
- A. Was ist „Legal-Tech“?
- B. Technische Hilfsmittel zur Bewältigung oder Vereinfachung von Aufgaben der Rechtsanwender
- I. Digitale Kommunikation
- II. Digitale Akten
- III. Digitale Gerichtsverhandlungen
- IV. Digitale Beauftragung der Zwangsvollstreckung nach der ZPO?
- C. Der Einsatz von KI zur Beantwortung juristischer Fragestellungen
- I. Der Einsatz von KI innerhalb festgelegter Sachverhalte, Gesetze und Ansprüche
- 1. Textgeneratoren
- 2. Rechner
- 3. Prüfung von Ansprüchen, Geltendmachung und Beurteilung von Forderungen durch KI
- 4. Roboter in Roben?
- II. Einsatz von KI ohne festgelegte Normen und Ansprüche
- D. Rechtsdurchsetzung und Strafverfolgung durch KI
- 629–644 Maßnahmenpaket zur Bekämpfung von Hasskriminalität im Netz. Ein Überblick unter besonderer Berücksichtigung der Pflichten für Plattformanbieter 629–644
- A. Problemaufriss und Handlungsbedarf
- B. Das Maßnahmenpaket
- I. Regelungen für Anbieter – Vergleich des Ist- mit dem Sollzustand
- 1. Meldepflicht
- 2. Auskunftsanspruch
- II. Weitere Neuerungen
- 1. Strafgesetzbuch und Strafprozessordnung
- 2. Waffenrecht
- 3. Melderegister
- 4. Prävention
- C. Ausblick und Bewertung
- 645–660 Das Datenschutzrecht als Instrument der Technikregulierung 645–660
- A. Steigende Bedeutung des Datenschutzrechts
- B. Selbstlernende Systeme als Musteranwendungsfall einer datenschutzgetriebenen Technikregulierung
- C. Technikregulierung als Risikoregulierung
- I. Die Datenschutz-Folgenabschätzung als Beispiel der Risikoregulierung
- II. Risikoregulierung bei selbstlernenden Systemen
- III. Was bedeutet eigentlich „Risiko“?
- 1. Erste Stufe: Risikoidentifikation
- 2. Zweite Stufe: Ermittlung der Eintrittswahrscheinlichkeit und der Schwere möglicher Schäden
- 3. Dritte Stufe: Einordnung in Risikoklassen
- 4. Zwischenergebnis
- D. Fazit
- 661–662 Grußwort aus Istanbul 661–662