Der soziale Roboter
Strafrechtliche Aspekte der Personifizierung technischer Systeme am Beispiel von Social Bots
Zusammenfassung
Das exponentielle Wachstum digital abrufbarer Informationen und die neuen Möglichkeiten ihrer Verarbeitung bilden ein Wesensmerkmal unserer Zeit. Es erfordert die zunehmende Auseinandersetzung mit der Frage, wie die Rechtsgemeinschaft dessen erwartbare Auswirkungen auf unser Zusammenleben verträglich gestalten kann. Insbesondere gilt es, das Einrücken von Computern in die Rolle sozialer Akteure normativ einzuhegen. Ein scheinbar besonders geeignetes Mittel hierfür ist das Strafrecht mit seinen höchstpersönlichen Rechtsfolgen. Doch lässt sich das hergebrachte Konzept von Täterschaft, Tatmittel und Rechtsgutsverletzung auf die neuen Herausforderungen übertragen? Bedarf unsere Art zu strafen einer Anpassung oder gar völliger Neuausrichtung?
Schlagworte
- 1–18 Titelei/Inhaltsverzeichnis 1–18
- 19–27 Einleitung 19–27
- A. Problemaufriss
- B. Gang der Untersuchung
- 28–56 Kapitel 1: Der soziale Roboter 28–56
- A. Der Begriff des Conversational Interface
- B. Erscheinungsformen
- I. Schlagwortkommunikation
- II. Dialogführung
- 1. Begriff des Chatbots
- a) Menschmetapher
- b) Assistenzmetapher
- 2. Einsatzgebiete von Chatbots
- a) Informationssektor
- b) Social Bots
- aa) Im engeren Sinne: Stimmungsmache in sozialen Netzwerken
- bb) Im weiteren Sinne: Der soziale Roboter
- C. Die Gleichsetzung von Mensch und Maschine als psychosoziales Phänomen
- I. Die Media Equation
- II. Grenzenlosigkeit der Zuschreibung?
- 1. Die Entdeckung des „Unheimlichen Tals“
- 2. Das Konzept „Sozialer Halluzinationen“
- III. Ausblick: Von der Vision zur Realität
- 57–90 Kapitel 2: Technische Grundlagen 57–90
- A. Menschliche Fähigkeiten als technische Eigenschaften
- I. Autonomie
- 1. Technologiebasierte Interpretation
- 2. Kritik
- II. Intelligenz
- 1. Schwache und starke KI
- 2. Voraussetzungen
- III. Lernfähigkeit
- 1. Strategien
- 2. Autonomiegrad
- B. Technische Umsetzung am Beispiel der Sprachverarbeitung
- I. Spracherkennung
- 1. Architektur von Sprachmodellen
- 2. Decoding
- II. Sprachverständnis
- 1. Pattern Matching
- 2. Natural Language Understanding
- III. Spracherzeugung
- 91–138 Kapitel 3: Die Gleichsetzung von Mensch und Maschine als Herausforderung für das Strafrecht 91–138
- A. Das Zeitalter der „Personalisierten Automatisierung“
- B. Die Haftungsfrage oder: Der Roboter als Straftäter
- I. Zum Begriff der Haftung
- II. Erteilung fehlerhafter Auskünfte
- III. Deliktische Äußerungen
- IV. Der Fall Tay als untersuchungsleitendes Motiv
- V. Die Vielzahl potentieller Haftungsadressaten
- VI. Der Roboter als Straftäter?
- C. Die strengen Zurechnungsmaßstäbe der Verschuldenshaftung
- I. Die Unberechenbarkeit selbstbestimmten Verhaltens
- 1. Selbstbestimmte Verhaltensweisen
- 2. Selbsterlernte Verhaltensweisen
- 3. Selbsterlernte Äußerungen
- II. Die Intransparenz selbstbestimmten Verhaltens
- III. Anwendung auf den Ausgangsfall
- 1. Vorliegen einer Rechtsgutsverletzung
- 2. Tatherrschaft der Saboteure
- 3. Kenntnis des Providers von den Inhalten
- 4. Sorgfaltspflichtverstoß des Betreibers oder des Entwicklers
- 5. Ergebnis
- D. Der enge Anwendungsbereich verschuldensunabhängiger Haftung
- I. Echte Gefährdungshaftungstatbestände
- II. Produkthaftung
- III. Anwendung auf den Ausgangsfall
- E. Zusammenfassung
- 139–190 Kapitel 4: Überwindung des Haftungsproblems durch ein neues Rechtssubjekt? 139–190
- A. Die zivilrechtlichen Lösungskonzepte
- B. Übertragbarkeit auf das Strafrecht
- C. Strafrechtliche Subjektqualität von Maschinen
- I. Fehlendes Bewusstsein als Versagungsgrund?
- 1. Ontologische Argumentation
- 2. Funktionalistische Argumentation
- II. Reichweite sozialer Zuschreibungen – eine Momentaufnahme
- 1. Schuldfähigkeit
- a) Zuweisung von Schuld als Rechtfertigung eines Strafakts
- b) Einzelne Strafzwecke
- aa) Absolute Strafzwecktheorien und Leidensfähigkeit
- bb) Generalprävention und Moralfähigkeit
- cc) Spezialprävention und Lernfähigkeit
- c) Schlussfolgerungen
- 2. Handlungsfähigkeit
- a) Handlungen als willensgesteuertes Verhalten
- b) Fehlender Handlungsunwert
- aa) Künstlicher Handlungsunwert
- bb) Parallelwertung in der Maschinensphäre
- c) Zweckmäßigkeit der Zuschreibung
- aa) Negativfunktion
- bb) Erklärungs- und Zurechnungsfunktion
- d) Handlungsfähigkeit im Sinne des Sozialen Handlungsbegriffs
- e) Das Google-Autocomplete-Urteil
- aa) Eigene Inhalte
- bb) Persönlichkeitsrechtsverletzung
- f) Schlussfolgerungen
- D. Zusammenfassung
- 191–212 Kapitel 5: Lösung über eine partielle Rechtssubjektivität von Maschinen 191–212
- A. Handeln ohne Verantwortung
- B. Maschinenhandeln als objektive Bedingung der Strafbarkeit?
- C. Maschinen als Handelnde im Sinne des Strafrechts
- I. Gesetzliche Zurechnungsbestimmungen der Täterschaft und Teilnahme
- II. Lernintervalle als Periodisierung des Lernprozesses
- D. Zusammenfassung
- 213–243 Kapitel 6: Das Täuschungsproblem 213–243
- A. Der Roboter als Tatopfer
- I. Eigene Rechtsfähigkeit
- II. Abgeleitete Rechtsfähigkeit
- III. Fiktive Rechtsfähigkeit
- 1. Social Bots und Verbrechensbekämpfung
- 2. Bewertung des Falls Sweetie 2.0
- 3. Bedenken
- 4. Schussfolgerungen
- IV. Zusammenfassung
- B. Der Roboter als Tatwerkzeug
- I. Täuschung über die Nichtmenschlichkeit
- II. Gegenwärtige Pönalisierung
- III. Notwendigkeit weitergehender Pönalisierung?
- 1. Social Bots als Instrument der Meinungsmache
- 2. Typische Gefahren
- 3. Schlussfolgerungen
- IV. Lösungsmöglichkeiten
- 1. Vollständiges Verbot
- 2. Kennzeichnungspflicht
- V. Zusammenfassung
- 244–246 Resümee 244–246
- 247–254 Annex: Vorschlag der EU-Kommission für ein „Gesetz über Künstliche Intelligenz“ 247–254
- A. Überblick über die relevanten Regelungsgegenstände
- B. Bewertung
- 255–274 Literaturverzeichnis 255–274
- 275–278 Online-Quellen 275–278