Jump to content
Künstliche Intelligenz und Strafrecht / Kapitel 3 – Strafrechtliche Produktverantwortung für KI-Produkte
Künstliche Intelligenz und Strafrecht / Kapitel 3 – Strafrechtliche Produktverantwortung für KI-Produkte
Contents
Chapter
Expand
|
Collapse
Page
2–22
Titelei/Inhaltsverzeichnis
2–22
Details
23–28
Einleitung
23–28
Details
A. Transformative Technik – Transformation des Strafrechts?
B. Untersuchungsgegenstand und Gang der Darstellung
29–154
Kapitel 1 – Risiko, Innovation und Verantwortung
29–154
Details
A. Risiko und Innovation
I. Von der Risikogesellschaft zur Innovationsgesellschaft
II. Innovationsforschung in der Innovationsgesellschaft
1. Begriff der Innovation
2. Innovation als Prozess
III. Rechtswissenschaftliche Innovationsforschung in der Innovationsgesellschaft
1. Innovationen und Recht – rechtsexterne Innovationen
2. Innovationen im Recht – rechtsinterne Innovationen
3. Methodik rechtswissenschaftlicher Innovationsforschung
a. Ermittlung eines Innovationsbedarfs
b. Erfassung rechtsexterner Innovationen unter Zuhilfenahme der Erkenntnisse außerrechtlicher Wissenschaften
IV. Rückblick und weiterer Gang der Darstellung
B. Technik und Risiko
I. Die Frage nach der Technik und dem Risiko
1. Die Frage nach der Technik
2. Die Frage nach dem Risiko
II. Technik
1. Technik als Form
a. Die Turing-Maschine
b. Die triviale Maschine nach von Foerster
c. Rigide Kopplung und funktionierende Simplifikation nach Luhmann
2. Technik als Experiment
3. Technik als Erwartung
4. Zwischenstand – „Klassische Technik“
III. Risiko durch Technik
1. Das Risiko
a. Risiko(entscheidung) vs. Gefahr
b. Risiko als Prognose und Wertung
aa. Risko als Prognose
bb. Risiko als Wertung
cc. Risiko als Produkt aus Schadenswahrscheinlichkeit und Schadenshöhe
c. Risiko und Chance
d. Zwischenstand
2. Technik und Risiko
a. Technisches Handeln als Entscheidung
b. Technisches Handeln und Schadenspotentiale
c. Technisches Handeln als Chance
3. Technisches Risiko und Konflikt
IV. Rückblick und Ausblick
C. Technische Innovation und Verantwortung
I. Die Frage nach der Verantwortung für technische Innovationen
II. Regulierung technischer Innovationen
1. Grundrechtliche Werteordnung zwischen Innovationsoffenheit und Innovationsverantwortung
a. Innovationsoffenheit
b. Innovationsverantwortung
c. Praktische Konkordanz
2. (Negative) Innovationsverantwortung und Vorsorgeprinzip
3. (Positive) Innovationsverantwortung staatlicher Akteure
a. Die EU als „Innovationsunion“
b. „Innovatives Deutschland“
4. Prävention und Recht der Prävention bei technischen Innovationen
a. Rechtstheoretische Grundlagen – Prävention durch Verhaltenssteuerung
b. Prävention durch „Regeln“ – Technisches Sicherheitsrecht
aa. Steuern vs. Regeln
bb. Unsicherheit und „legal lag“
cc. Unsicherheit und Dynamisierung
dd. Unsicherheit und Delegation
(1) Delegation an Rechtsprechung
(2) Delegation an Experten – technische Regelwerke
ee. Verfassungsrechtliche Grenzen des technischen Sicherheitsrechts
(1) Zum Bestimmtheitsgrundsatz
(2) Zum Vorbehalt des Gesetzes
c. Prävention durch Sanktion
aa. Zivilrechtliche Gefährdungshaftung
bb. Gestaltung des zivilrechtlichen Beweisrechts
5. Rückblick
III. Technische Innovation und strafrechtliche Verantwortung
1. Prävention technischer Risiken als Zweck im Strafrecht
a. Prävention technischer Risiken als Zweck im Strafrecht – ein empirischer Befund
b. Prävention technischer Risiken als Zweck im Strafrecht – ein normativer Befund?
2. Strafrechtliche Mittel der Prävention technischer Risiken
a. Unterscheidung zwischen strafbewehrter Verhaltensnorm und Sanktionsnorm
b. Vorverlagerung und Expansion strafbewehrter Verhaltensnormen
c. Dynamisierung und Multinormativität von strafbewehrten Verhaltensnormen
d. Prävention durch strafrechtliche Sanktionsnormen
aa. abstrakte Gefährdungsdelikte
bb. „Flexibilisierung des Strafrechts“?
3. Rückblick und Ausblick
155–218
Kapitel 2 – Künstliche Intelligenz als technische Innovation
155–218
Details
A. Künstliche Intelligenz
I. Begriff und Eigenschaften Künstlicher Intelligenz
1. KI als Imitation menschlichen Verhaltens
a. Der Ansatz des Turing-Tests
b. John McCarthy und artificial intelligence
c. KI als dynamischer Begriff
2. Das Modell des intelligenten Agenten
a. Agentenarchitektur: sense-plan-act
b. Roboter und Software-Bots
3. Zwischenstand
4. Lernfähigkeit und (technische) Autonomie
II. KI und maschinelles Lernen
1. Symbolbasierte KI – Wissen durch Theorie
2. Von symbolbasierter KI zum maschinellen Lernen – Wissen durch Erfahrung
3. Maschinelle Lernmethoden
a. Stochastik und Bayessche Verfahren
b. Analogismus
c. Symbolismus
d. Konnektionismus – künstliche neuronale Netze
4. Insbesondere: Künstliche neuronale Netze und deep learning
5. Maschinelle Lernmethoden als statistische Verfahren
6. Maschinelle Lernformen
7. Offline- und online-learning
8. Big Data und maschinelles Lernen
9. Menschliche Akteure beim maschinellen Lernen
III. Maschinelles Lernen und Black-Box-Effekte
1. Epistemische Opazität
2. Dimensionen epistemischer Transparenz
3. Epistemische Opazität bei KI-Systemen
a. (relative) epistemische Opazität auf Grund Komplexität
b. (absolute) epistemische Opazität auf Grund analytischer Unverständlichkeit
4. Exkurs: Maschinelles Lernen und „statistische Transparenz“
IV. Can machines think? – schwache vs. starke Künstliche Intelligenz
1. Schwache und starke KI
2. Möglichkeit und technische Umsetzung starker KI?
a. Möglichkeit starker KI
b. Technische Umsetzung starker KI
3. Maschinelles Lernen als schwache KI
V. Rückblick und Ausblick
B. Künstliche Intelligenz als technische Innovation
I. KI als Form
II. KI als Experiment
III. KI als Erwartung
IV. Zwischenstand – KI als transklassische Technik
V. KI-Technik und Risiko
1. KI-Technik und Risikoprognose
a. KI und Risikowissen
b. Erhöhte Schadenswahrscheinlichkeit und Schadenshöhe?
2. KI-Technik: Risiko oder Gefahr?
3. KI-Technik: Sicherheitsrisiko und Verantwortungsrisiko
4. KI-Technik und Chance
VI. Rückblick
219–422
Kapitel 3 – Strafrechtliche Produktverantwortung für KI-Produkte
219–422
Details
A. Begriff und Wesen der strafrechtlichen Produktverantwortung
I. Spezielle strafrechtliche Produktverantwortung
II. Allgemeine strafrechtliche Produktverantwortung
B. Realbereich der strafrechtlichen Produktverantwortung für KI-Produkte
I. KI-Produkt als Technik
1. (KI-)Produkt
2. Produkt und klassische Technik
a. Produktkategorien
aa. Arzneimittel
bb. Chemische Stoffe
cc. Sonstige technische Produkte
b. Produkt als klassische Technik?
3. KI-Produkt als transklassische Technik
a. KI und Arzneimittel / chemische Stoffe
b. Sonstige KI-Produkte
aa. Fallbeispiele
bb. Analyse
II. KI-Technik als Produkt – das „problem of many hands“
1. Arbeitsteiliges Zusammenwirken und das „problem of many hands“
2. Das „problem of many hands“ im technischen Kontext
3. (KI-)Technik und soziale Opazität im Kontext des „problem of many hands“
a. Soziale Opazität im Verhältnis Experte – Nicht-Experte
b. Soziale Opazität unter Experten
III. KI-Produkt und Risiko
1. Technisches Produkt und Risiko
2. KI-Produkt und Risiko
IV. Rückblick
C. „KI-Verantwortung“ statt Produzentenverantwortung?
I. Stand der Literatur: „Derzeit“ keine KI-Verantwortung
1. Zur Handlungsfähigkeit
2. Zur Schuldfähigkeit auf Grundlage des normativen Schuldbegriffs
3. Zur Schuldfähigkeit auf Grundlage des funktionalen Schuldbegriffs
4. Zwischenstand
II. Stellungnahme
1. Dysfunktionalität einer KI-Verantwortung
2. Menschsein als kategoriale Voraussetzung strafrechtlicher Verantwortung
a. Dichotomie zwischen Mensch und Maschine
b. Menschsein als axiomatische Grenze der Verfassung
D. Strafrechtliche Produktverantwortung im Kontext der KI-Regulierung
I. Rückblick und Ausblick
II. Positive Innovationsverantwortung – KI-Strategie staatlicher Akteure
III. Spezielles Produktsicherheitsrecht für KI-Systeme – Vorschlag für eine KI-Verordnung
1. Grundlagen: Das technische Produktsicherheitsrecht
a. Kooperative Normsetzung durch den „New Approach“ bzw. den „New Legislative Framework“
b. Konformitätsbewertungsverfahren des „New Approach“ bzw. des NLF
c. Umsetzung in nationales Recht und verbliebenes nationales Produktsicherheitsrecht
d. Inhaltliche Anforderungen nach dem technischen Produktsicherheitsrecht
aa. Sicherheitspflichten (v.a. Konstruktions- und Fabrikationspflichten), § 3 Abs. 1, 2 ProdSG
bb. Produktbeobachtungspflichten, § 6 Abs. 2, Abs. 3 ProdSG
e. Marktüberwachung nach dem ProdSG und dem MüG
2. Vorschlag für eine KI-Verordnung
a. Horizontaler und risikobasierter Ansatz
aa. Verbot unannehmbarer Risiken
bb. Regulierung hoher Risiken
(1) Eigenständige Hochrisiko-KI-Systeme
(2) Harmonisierte Produkte oder Sicherheitskomponenten von Produkten
cc. Geringe oder minimale Risiken
b. Ausnahme vom risikobasierten Ansatz: Foundation Models
c. Kooperative Normsetzung, Konformitätsbewertungsverfahren und Konformitätsvermutung
d. Inhaltliche Anforderungen an Produkte als Hochrisiko-KI-Systeme bzw. als Foundation Models
IV. Zivilrechtliche Produkthaftung für KI-Produkte
1. Verschuldensabhängige Haftung für KI-Produkte
2. Fehlerhaftung für KI-Produkte nach dem ProdHaftG
a. Fehlerhaftung gem. § 1 Abs. 1 ProdHaftG
b. Vorschlag für eine neue Produkthaftungsrichtlinie
3. Spezielle Verhaltensnormen für KI-Produkte?
E. Normative Schwerpunkte bei der strafrechtlichen Produktverantwortung für KI-Produkte de lege lata
I. Rückblick und Ausblick
II. Technisches Risiko und unternehmensbezogene Verhaltenspflichten
1. Grundlagen
a. Fahrlässigkeit und technische Verhaltensnormen
b. Individuelles Verantwortungsmodell und unternehmensbezogene Betrachtungsweise
c. Einheitlichkeitsthese
2. KI-technisches Risiko und Grund unternehmensbezogener Verhaltenspflichten
a. Adressatenstellung als Spiegelbild der Freiheit zu Risikohandlungen
b. Adressatenstellung des Unternehmens auf Grund von Opazität und Verbrauchervertrauen
c. Adressatenstellung des Herstellers als „cheapest cost avoider“
d. Zwischenstand: Technisches Risiko und Opazität als Grund unternehmensbezogener Verhaltenspflichten
e. KI-technisches Risiko und Grund unternehmensbezogener Verhaltenspflichten
3. Erlaubtes KI-technisches Risiko und Umfang unternehmensbezogener Pflichten
a. Die Rechtsfigur des „erlaubten Risikos“ im Kontext der KI-Regulierung
aa. Herkunft und Anwendungsbereich
bb. Das (un)erlaubte technische Risiko im Kontext der Technikregulierung
b. Erlaubtes Risiko und technische Verhaltensnormen der KI-VO-E
aa. Normcharakter von technischen Verhaltensnormen der KI-VO-E
(1) Technische Verhaltensnormen der KI-VO-E als Rechtsnormen i.e.S.
(2) Harmonisierte Normen der KI-VO-E als Rechtsnormen i.w.S.
(3) Verhaltenskodizes i.S.d. Art. 69 KI-VO-E als unverbindliches soft-law
bb. Umfassende Bindungswirkung technischer Verhaltensnormen der KI-VO-E (als Rechtsnormen i.e.S.)
(1) Allgemeiner Grundsatz
(2) Bindungswirkung außerhalb des Anwendungsbereichs von Hochrisiko-KI-Systemen?
cc. Eingeschränkte Bindungswirkung harmonisierter Normen
dd. Bindungswirkung bei Verhaltenskodizes i.S.d. Art. 69 Abs. 1 KI-VO-E?
ee. Einschränkung der Bindungswirkung aus dem Schutzzweckzusammenhang
(1) Allgemeine Grundsätze
(2) Technische Verhaltensnormen und Schutzzweck der KI-VO-E: Sicherheitsrisiko und Verantwortungsrisiko?
(3) Technische Verhaltensnormen und Risikoidentität?
c. Erlaubtes Risiko und zivilrechtliches Produkthaftungsrecht
d. Erlaubtes technisches Risiko und Abwägung
aa. Raum für richterrechtliche Abwägung?
bb. Allgemeines Abwägungsprinzip zur Bestimmung des erlaubten Risikos
cc. Anschlussfähigkeit des allgemeinen Abwägungsprinzips an die grundrechtliche Werteordnung zwischen Innovationsfreiheit und Innovationsverantwortung
dd. Erlaubtes Risiko bei KI-Produkten
(1) Abwägung von Risiko und Chance
(2) Berücksichtigung eingeschränkter Risikoprognose
(3) Grenze der Unvorhersehbarkeit
4. Zwischenstand
III. Das „problem of many hands“ und individuelle Verhaltenspflichten
1. Transformation unternehmensbezogener Verhaltensnormen zu individuellen Verhaltensnormen
2. Allzuständigkeit der Unternehmensleitung und Vertrauensgrundsatz
a. Bedeutung von Vertrauen im arbeitsteiligen Zusammenwirken
b. Grundvoraussetzungen des Vertrauensgrundsatzes
3. Vertikale Aufgabendelegation und Vertrauensgrundsatz
a. Teilweise Konkretisierung von „Organisation und Kontrolle“ durch die KI-VO-E
b. Konkretisierung von „Organisation und Kontrolle“ durch Risikograd und Komplexität des arbeitsteiligen Prozesses
c. Vertrauensgrundsatz und Zuverlässigkeit des Delegaten
4. Horizontale Aufgabendelegation und Vertrauensgrundsatz
a. Information und Koordination
b. Wissensdistribution und professionelle Nichtwahrnehmbarkeit
5. KI-System und Vertrauensgrundsatz?
6. Verantwortungslücke trotz Verantwortungsvervielfältigung
IV. Kausalität und objektive Zurechnung
1. Technische Autonomie und objektive Zurechnung
a. KI als allgemeines Lebensrisiko?
b. Eigenverantwortliches Dazwischentreten eines KI-Systems?
2. Epistemische Opazität, Kausalität und objektive Zurechnung
a. Unsicherheit im Strafprozess und richterliche Überzeugungsbildung
b. Epistemische Opazität und generelle Kausalität
aa. Generelle Kausalität und technische Wirkzusammenhänge
bb. Generelle Kausalität und epistemische Opazität 1.0 (Contergan, Lederspray, Holzschutzmittel)
cc. Kompetenzkonflikte zwischen relevanten Wissenschaftskreisen und Tatgericht
dd. Epistemische Opazität 2.0 und generelle Kausalität
c. Epistemische Opazität und Pflichtwidrigkeitszusammenhang
aa. Pflichtwidrigkeitszusammenhang – Grund und Methodik
bb. Pflichtwidrigkeitszusammenhang – Vermeidbarkeitstheorie und Risikoerhöhungslehre
(1) Vermeidbarkeitstheorie
(2) Risikoerhöhungslehre
cc. Unsicherheit über KI-technische Prozesse
dd. Anwendung der Risikoerhöhungslehre bei opaken KI-technischen Wirkzusammenhängen?
(1) Nachweiserleichterung bei Anwendung der Risikoerhöhungslehre auf (KI-)technische Wirkzusammenhänge
(2) Risikoerhöhungslehre als legitimes Mittel der „Beweiserleichterung“?
3. „Problem of many hands“ und Pflichtwidrigkeitszusammenhang
a. Pflichtwidrigkeitszusammenhang bei gleichzeitig pflichtwidrigem Handeln
b. Pflichtwidrigkeitszusammenhang bei nacheinander erfolgenden pflichtwidrigen Handlungen
4. Zwischenstand: Verantwortungslücke bei der Feststellung des Pflichtwidrigkeitszusammenhangs
F. Strafrechtliche Produktverantwortung für KI-Produkte de lege ferenda?
I. Rückblick und Ausblick
II. Strafrechtliche „Gefährdungsverantwortung“ für KI-Produkte?
1. Konzept einer Gefährdungshaftung bzw. einer „Gefährdungsverantwortung“
2. Effektivität einer strafrechtlichen „Gefährdungsverantwortung“ für KI-Produkte
3. Strafrechtliche „Gefährdungsverantwortung“ kein legitimes Instrument der strafrechtlichen Verhaltenssteuerung
III. Allgemeines Gefährdungsdelikt für KI-Produkte?
1. Vorschläge zur Einführung eines Gefährdungsdelikts
2. Effektivität von Gefährdungsdelikten
3. Legitimitätsgrenzen für die Einführung eines Gefährdungsdelikts und rechtspolitische Abwägung
a. Strafrecht als akzessorische Rechtsordnung
b. Sonstige Legitimitätserwägungen
IV. Spezielle strafrechtliche Produktverantwortung (i.w.S.)
1. „Abschreckende Sanktionen“ für Verstöße gegen die KI-VO-E
2. Effektivität einer speziellen strafrechtlichen Produktverantwortung
3. Legitimität und Opportunität einer speziellen strafrechtlichen Produktverantwortung
4. Spezielle strafrechtliche Produktverantwortung als Kollektivverantwortung?
V. Rückblick und Ausblick
423–430
Zusammenfassung und Ergebnisse der Arbeit
423–430
Details
431–472
Literaturverzeichnis
431–472
Details
473–480
Sachregister
473–480
Details
Durchsuchen Sie das Werk
Geben Sie ein Keyword in die Suchleiste ein
CC-BY
Access
Künstliche Intelligenz und Strafrecht , page 219 - 422
Kapitel 3 – Strafrechtliche Produktverantwortung für KI-Produkte
Autoren
Victoria Ibold
DOI
doi.org/10.5771/9783748941798-219
ISBN print: 978-3-7560-1065-3
ISBN online: 978-3-7489-4179-8
Chapter Preview
Share
Download PDF
Download citation
RIS
BibTeX
Copy DOI link
doi.org/10.5771/9783748941798-219
Share by email
Video schließen
Share by email Nomos eLibrary
Recipient*
Sender*
Message*
Your name
Send message
This site is protected by reCAPTCHA and the Google
Privacy Policy
and
Terms of Service
apply.