Antragsteller: Juso-Landesvorstand
Weiterleitung an: Landesparteitag der SPD, Bundeskongress der Jusos, Landtagsfraktion der SPD, Bundestagsfraktion der SPD
Wenn wir an Sicherheit denken, kommt uns wahrscheinlich inzwischen ziemlich schnell der russische Angriffskrieg in den Kopf. Vielleicht haben wir auch vor Augen wie sicher wir uns eigentlich zuhause, im öffentlichen Raum oder in Clubs fühlen. Sicherheit im Straßenverkehr dürfte insbesondere für alle von uns ein Begriff sein, die gerade ihren Führerschein gemacht haben oder dabei sind. Doch seit einigen Jahrzehnten hat diese (Un-)Sicherheit eine ganz neue Dimension gewonnen. Eine Dimension, die keinesfalls für sich existiert, sondern eng mit der schon ewig bekannten Realität verzahnt ist, aber dennoch oft vergessen wird: die Sicherheit im digitalen Raum. Vergessen wird zum Beispiel oft, dass dem russischen Angriffskrieg ein lange weitgehend unter der Oberfläche verborgener Cyberkrieg vorausging. Mit der Verbindung aus herkömmlicher Kriegstaktik und neuen Mitteln im Cyberbereich hat Russland damit den Begriff der hybriden Kriegsführung für sich beansprucht. Teil von ebenjener ist aber nicht nur das uns bekannte Hacken, sondern auch Desinformationskampagnen und Meinungsbestimmung. Wenn wir uns fragen, wie sicher wir uns eigentlich in öffentlichen Räumen fühlen, müssen wir uns theoretisch auch fragen, wie sicher wir uns eigentlich in digitalen Räumen fühlen? Fühlen wir uns in Kommentarspalten von Instagram und Co. wohl mit all dem Hass? Haben wir bildbasierte sexualisierte Gewalt einfach so hinzunehmen? Und wenn es im Straßenverkehr für einen sicheren Umgang so viele Regeln braucht, welche Regeln haben wir denn eigentlich im Umgang mit KI?
Unser Umgang mit Digitaler Gewalt
Kaum haben wir in den letzten Wochen ein Video auf dem Instagramaccount der Jusos Baden-Württemberg hochgeladen, war die Kommentarspalte innerhalb von Minuten schon voll von menschenverachtenden Kommentaren. Gerade in der Zeit des Wahlkampfs, war das bei uns kein Einzelfall, sondern sah bei vielen Kandidierenden vor Ort ähnlich aus. Dabei ist schon lang klar, dass das Internet kein rechtsfreier und unregulierter Raum ist. Als ein zentraler Ort der öffentlichen Debatte und demokratischen Teilhabe ist das Internet zunehmend bedroht von Hass, Hetze und Desinformation. Um das Internet wieder zu einem sicheren Ort für uns alle zu machen, fordern die Jusos Baden-Württemberg im Umgang mit digitaler Gewalt das Folgende:
Awareness
Für den Schutz vor digitaler Gewalt ist es zunächst notwendig zu definieren, was digitale Gewalt überhaupt ist. Die Frauenhauskoordinierung e.V. definiert digitale Gewalt als „verschiedene Formen der Gewalt, welche mithilfe technischer Geräte und über Programme oder Plattformen ausgeübt wird“. Digitale Gewalt steht dabei meist in direkter Verbindung zu analoger Gewalt. Neben dem sehr bekannten Hatespeech zählt dazu noch die bildbasierte sexualisierte Gewalt, die Erstellung von Fakeprofilen, oder der Datendiebstahl. Wie groß das Problem mit digitaler Gewalt ist, ist leider kaum beziehungsweise bisher gar nicht empirisch erfasst. Das liegt zum einen daran, dass zu wenigen Menschen bewusst ist, dass auch das Internet kein rechtsfreier Raum ist und Beleidigungen, sogenannte “Dickpics”, Volksverhetzung oder ähnliches strafbar sind. Daher fordern wir:
- Digitale Bildung in die Schulen: Die umfassende Berücksichtigung digitaler Bildung in den Lehrplänen, um Schüler*innen über den sicheren Umgang mit dem Internet, Datenschutz und dem Schutz vor digitalem Hass aufzuklären. In Bezug darauf, dass wir inzwischen immer früher online aktiv sind, ist das auch bereits in den unteren Klassenstufen wichtig, um über die Gefahren von Grooming (die gezielte Kontaktaufnahme Erwachsener mit Minderjährigen in Missbrauchsabsicht“ vgl. Wikipedia: Grooming) und ähnlichem frühzeitig aufzuklären.
- Öffentliche Kampagnen: Eine umfassende nationale Bildungsoffensive zur Förderung der Medienkompetenz. Diese Initiative soll mit mindestens 6,5 Milliarden Euro ausgestattet werden und gezielte Bildungsprogramme und Schulungen für alle Altersgruppen umfassen, um die breite Bevölkerung gegen Desinformationen, digitale Gewalt, Risiken der Datenweitergabe und die Möglichkeiten des (rechtlichen) Selbstschutzes im digitalen Raum zu informieren, denn wir sehen, dass es auch bei (jungen) Erwachsenen an Sensibilität für digitale Gewalt mangelt.
Der Staat
Das Problem besteht jedoch nicht nur auf Seiten der Nutzerinnen, sondern greift deutlich weiter. Wie schon beschrieben gibt es viel zu wenige datenbasierte Studien zum Thema der digitalen Gewalt. Das Ausmaß und mögliche Konsequenzen für die Betroffenen werden demzufolge nirgends erfasst. Beispielsweise fallen das online Stalken und Belästigen einereines (Ex-)Partner*in meist unter häusliche und nicht digitale Gewalt. Wir fordern daher:
- Regelmäßige Studien und Berichte: Eine kontinuierliche Erfassung und Analyse von Hassdynamiken im Internet durch regelmäßige Studien und Berichte. Diese Daten sollen dazu genutzt werden, gezielt Maßnahmen zur Bekämpfung von Hass im Netz zu entwickeln und die Effektivität bestehender Maßnahmen zu überprüfen.
- Schulung von Beamtinnen: Daneben sollen auch Beamtinnen im Umgang mit digitaler Gewalt besser geschult werden. Dabei geht es zum einen darum, dass das Bewusstsein geschärft wird, da es noch immer Polizist*innen gibt, die beispielsweise in so genannten “Revenge-Porn”-Fällen („Als Racheporno bezeichnet man pornografische […] angefertigte Videos oder Bilder einer anderen Person, die im Rahmen eines Racheaktes veröffentlicht werden“ vgl. Wikipedia: Revenge Porn) die Schuld bei der Person sehen, welche die Fotos/Videos überhaupt gemacht hat. Zum anderen muss auch die Beweissicherung durch die Polizei verbessert werden.
- Digitalisierung der Justiz: Auch die Justiz muss digital aufgerüstet werden, um Fälle von digitaler Gewalt effizient und zeitnah bearbeiten zu können. Dies umfasst die Implementierung digitaler Tools und Plattformen, die den Betroffenen den Zugang zu Rechtsmitteln erleichtern und eine schnellere Bearbeitung von Fällen ermöglichen.
- Aufbau eines Beratungsnetzwerks: Es soll ein bundesweites Netzwerk von spezialisierten Beratungsstellen für Betroffene digitaler Gewalt aufgebaut werden. Diese Beratungsstellen sollen den Betroffenen Unterstützung und Beratung bieten und ihnen helfen, ihre Rechte durchzusetzen.
Gesetzliche Rahmenbedingungen
In den letzten Jahren hat sich auf Seiten der Legislative bereits Einiges getan: so wurde beispielsweise der Digital Services Act von der Europäischen Union verabschiedet, der Dienstleistungen im digitalen Raum besser regulieren soll und etwa Anbieter*innen dazu verpflichtet, stärker gegen illegale Inhalte vorzugehen und damit der eigenen Verantwortung gerecht zu werden. Ein weiterer Schritt auf EU-Ebene war die Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt. Auch in dieser thematisiert die EU digitale Gewalt und sieht vor, dass besonders Betroffene von häuslicher Gewalt besser geschützt werden sollen. Hier gilt es nun von der Bundesregierung entsprechende Konzepte vorzulegen, um ebendiese Richtlinien auch auf nationaler Ebene umzusetzen. Das Bundesministerium der Justiz hat vor mehr als einem Jahr ein Eckpunktepapier für ein Digitales Gewaltschutzkonzept vorgelegt, seitdem ist jedoch wenig passiert. Wir fordern daher die schnellstmögliche Umsetzung dieses Eckpunktepapiers unter Anwendung einer wie oben beschriebenen Definition der digitalen Gewalt. Daneben sollen die geplanten Regelungen nur auf die Persönlichkeitsrechte von Privatpersonen beschränkt werden. Weiter sehen wir in Accountsperren kein effektives Mittel, da der verwaltungstechnische Aufwand einer richterlich angeordneten Accountsperre in keinem Verhältnis zu der Wirkung steht und die entsprechende Person sich einfach einen neuen Account erstellen kann.
Dies darf nicht dazu führen, dass einfach eine anlasslose Vorratsdatenspeicherung eingeführt wird. Eine solche würde in die Privatsphäre aller, die im digitalen Raum unterwegs sind, und damit stark in Grundrechte eingreifen und es besteht die Gefahr, dass Daten durch Sicherheitsbehörden oder einzelne Verfassungsfeinde in diesen Behörden missbraucht werden. Für uns ist klar, dass mit Bezug auf diese Formen von Gewalt eine Login-Falle, wie sie bereits im Koalitionsvertrag steht, eine effektive und angemessene Maßnahme darstellt, die die Grundrechte nicht zu sehr einschränkt. Die Login-Falle ist ein von D64 entwickeltes Verfahren, welches es Strafverfolgungsbehörden ermöglichen soll, mittels standardisierter Schnittstellen Ermittlungsverfahren gegen Straftäterinnen einzuleiten. Nutzerinnen können potenzielle Straftaten direkt auf der genutzten Plattform melden. Diese Meldung wird von Strafverfolgungsbehörden überprüft. Bei einem Anfangsverdacht für eine Straftat wird nach richterlicher Anordnung beim nächsten Login automatisiert die IP-Adresse der/des möglichen Straftäter*in an die Behörden übermittelt und über einen Datenabgleich ihre/seine Stammdaten (Name, Adresse) ermittelt. Lediglich wenn sich zeigen sollte, dass eine solche Login-Falle in der Praxis scheitern sollte, wobei dies derzeit jedoch nicht ersichtlich ist, darf der Gesetzgeber weitergehende Eingriffsbefugnisse prüfen.
Die Chatkontrolle, bei der private Kommunikation systematisch überwacht wird, ist für uns keine Option. Sie greift erheblich in die Privatsphäre der Nutzerinnen ein und schränkt die Meinungsfreiheit ein, da Menschen aus Angst vor Überwachung möglicherweise weniger offen kommunizieren. Zudem muss für die Chatkontrolle die Ende-zu-Ende-Verschlüsselung geschwächt werden, was die Sicherheit der Kommunikation gefährdet und sie anfälliger für Cyberkriminalität macht. Die Technologie zur Erkennung illegaler Inhalte ist fehleranfällig und kann zu falschen positiven und negativen Ergebnissen führen, was unschuldige Nutzerinnen ungerechtfertigten Konsequenzen aussetzt. Ein solcher Eingriff untergräbt das Vertrauen in digitale Dienste und bringt Menschen dazu, weniger sichere Kommunikationswege zu nutzen. Schließlich ist die Maßnahme unverhältnismäßig, da sie die gesamte Bevölkerung unter Generalverdacht stellt und es bessere, weniger invasive Methoden zur Bekämpfung illegaler Aktivitäten gibt.
Unternehmen
Gerade im digitalen Bereich haben sich in den letzten Jahrzehnten vermehrt Monopole gebildet. Der Digital Markets Act der EU war an dieser Stelle ein Schritt in die richtige Richtung, reicht aber noch nicht aus, um nicht nur Monopolstellungen zu verhindern, sondern auch generell den großen Anbieter*innen Vorgaben zu machen, damit auch online Verbraucherschutzrechte gewahrt werden. Um eine Gewährleistung der Rechte auch online durchsetzen zu können, fordern wir:
- Starke Aufsichtsbehörde: Die Einrichtung einer unabhängigen und gut ausgestatteten Aufsichtsbehörde, die die Einhaltung des oben thematisierten Digital Services Act überwacht und Verstöße konsequent ahndet. Diese Behörde sollte auch die Befugnis haben, Sanktionen gegen Plattformen zu verhängen, die ihren Pflichten nicht nachkommen.
- Konsequente Durchsetzung der DSGVO: Die Datenschutz-Grundverordnung (DSGVO) bietet einen robusten Rahmen zum Schutz personenbezogener Daten. Wir fordern eine konsequente Durchsetzung durch die Aufsichtsbehörden, einschließlich strenger Sanktionen für Verstöße.
- Einhaltung des Digital Markets Act: Strikte Einhaltung und Durchsetzung des Digital Markets Act, um die Marktmacht großer digitaler Plattformen zu regulieren und den Wettbewerb zu fördern.
Weiter wollen wir daneben auch die Plattformen vermehrt in die Pflicht nehmen und die Selbstbestimmung für Nutzer*innen so einfach wie möglich zu gestalten. Dazu gehört für uns:
- Transparenzpflichten für Werbeanbieter: Werbeanbieter sollen verpflichtet werden, offen zu legen, welche Daten sie sammeln und wie diese genutzt werden. Dies bedeutet, dass Nutzerinnen klar und verständlich darüber informiert werden müssen, welche Art von Daten (z.B. demografische Informationen, Surfverhalten, Kaufhistorie) erhoben werden und zu welchem Zweck (z.B. zielgerichtete Werbung, Analyse des Nutzerverhaltens). Insbesondere muss personalisierte Werbung als solche gekennzeichnet sein, damit die Nutzerinnen erkennen können, wann sie individuell zugeschnittene Werbung sehen. Diese Transparenz ist wichtig, um das Vertrauen der Nutzer*innen zu stärken und ihnen die Möglichkeit zu geben, fundierte Entscheidungen über ihre Daten und deren Verwendung zu treffen.
- Transparente Cookie-Banner: Einführung eines einheitlichen und leicht verständlichen Designs für Cookie-Banner in der gesamten EU, um die Zustimmung der Nutzerinnen klar und informativ zu gestalten. Dies bedeutet, dass alle Websites in der EU ein standardisiertes Format für Cookie-Banner verwenden, das deutlich erklärt, welche Cookies gesetzt werden, warum sie verwendet werden und welche Auswirkungen die Zustimmung oder Ablehnung der Cookies hat. Ein solches Design erleichtert es den Nutzerinnen, informierte Entscheidungen zu treffen, ohne durch verwirrende oder irreführende Cookie-Banner überfordert zu werden. Eine einheitliche Regelung könnte die Akzeptanz und das Verständnis für Cookies und deren Verwaltung erheblich verbessern.
- Do Not Track: Die gesetzliche Verpflichtung, dass alle Websites den „Do Not Track“-Header respektieren müssen, um Nutzern eine einfache Möglichkeit zu bieten, das Tracking abzulehnen. Der „Do Not Track“-Header ist eine Funktion, die Nutzerinnen in ihrem Browser aktivieren können, um Websites mitzuteilen, dass sie nicht verfolgt werden möchten. Derzeit gibt es jedoch keine Verpflichtung für Websites, diese Einstellung zu respektieren. Eine gesetzliche Verpflichtung stellt sicher, dass die Privatsphäre der Nutzer*innen respektiert wird und sie mehr Kontrolle über ihre Online-Aktivitäten haben.
- Verpflichtende Sicherheitsstandards für Plattformen: Soziale Netzwerke und digitale Plattformen sollen verpflichtet werden, ihre Systeme nach den Prinzipien „Safety by Design“ und „Security by Design“ zu gestalten. Dies bedeutet, dass Sicherheits- und Datenschutzaspekte von Anfang an in die Entwicklung der Plattformen integriert werden. Dazu gehören transparente Meldewege für Missbrauch und schädliche Inhalte, automatisierte Moderationstools, die in der Lage sind, problematische Inhalte zu erkennen und zu entfernen, sowie eine klare Trennung von privaten und öffentlichen Nachrichten, um die Privatsphäre der Nutzerinnen zu schützen. Solche Maßnahmen sind notwendig, um die Sicherheit und den Schutz der Nutzerinnen zu gewährleisten und das Vertrauen in digitale Plattformen zu stärken.
- Dezentrale soziale Netzwerke fördern: Unterstützung und Förderung dezentraler sozialer Netzwerke wie Mastodon, die durch ihre Struktur eine geringere Verbreitung von Hassinhalten ermöglichen. Dezentrale Netzwerke bestehen aus vielen unabhängigen Servern (sogenannten „Instanzen“), die miteinander verbunden sind, aber individuell betrieben werden. Diese Struktur macht es schwieriger, schädliche Inhalte massenhaft zu verbreiten, da sie nicht von einer zentralen Stelle aus gesteuert werden. Durch die Förderung solcher Netzwerke werden alternative, sicherere Online-Räume geschaffen werden, die weniger anfällig für Missbrauch und Manipulation sind.
- Automatisierte Blockierfunktionen: Plattformen sollten Funktionen anbieten, die es Nutzerinnen ermöglichen, mit wenigen Klicks ganze Gruppen oder Instanzen von schädlichen Nutzerinnen zu blockieren. Diese Funktionen können beispielsweise die Möglichkeit bieten, alle Nutzer*innen einer bestimmten Gruppe oder alle Inhalte von einer bestimmten Instanz in einem dezentralen Netzwerk zu blockieren. Solche Maßnahmen helfen den Nutzerinnen, sich effektiv vor Belästigungen, Hassreden und anderen schädlichen Inhalten zu schützen, ohne dass sie jeden einzelnen problematischen Account manuell blockieren müssen.
Unser Umgang mit KI
2024 – Der Beginn einer Revolution
Sam Altman, CEO von ChatGPT-Herausgeber OpenAI, sagte vor einigen Jahren in einem Interview: “KI wird höchstwahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es großartige Unternehmen geben.” Auch wenn man bei Altman an dieser Stelle einen gewissen Sarkasmus spüren kann, bringt er damit die Strategie, die sein Unternehmen und andere Tech-StartUps gerade ernsthaft verfolgen, auf den Punkt. Google-Gründer Larry Page betont, es sei “sentimentaler Nonsens” die Auslöschung der Menschheit aufzuhalten, denn KI-Systeme seien schlichtweg der nächste Schritt der Evolution. Man könnte diese Aussagen als den Schwachsinn einiger weniger Hirnrissiger abtun, wenn es sich dabei nicht um die führenden Köpfe der größten Unternehmen der Welt, allerlei politisch einflussreicher Think-Tanks und eine ganze Reihe an Milliardärinnen handeln würde, die aufgrund ihres libertär-faschistoiden Weltbildes zu den größten Geldgeberinnen der neuen Rechten aufgestiegen sind. Deshalb ist es an der Zeit, dass wir Jusos uns fragen: Wem gehört die KI? Welche Probleme schafft sie und wessen Probleme löst sie eigentlich?
Computer sagt nein
Systeme maschinellen Lernens sind prädestiniert dafür, Muster in komplexen Datenmengen zu erkennen. Moderne Sprachmodelle können fast perfekt menschliche Konversation simulieren. Bereits heute ersetzen Unternehmen Service-Personal durch ChatBots und Krankenversicherungen lassen Ansprüche durch Algorithmen prüfen. Doch solche Algorithmen sind eine Blackbox und treffen oft nicht erklärbare Entscheidungen.
Wir fordern daher:
- Eine von einem safety-first Ansatz geprägte KI-Politik. Dafür sollte insbesondere die Forschung für erklärbare, sichere und ethische KI den Großteil öffentlicher Forschung ausmachen. Dieser müssen entsprechende finanzielle Mittel zur Verfügung stehen.
- Das Recht mit einem Menschen zu sprechen: Überall wo KI zum Einsatz kommt, muss die Option bestehen alternativ mit einem Menschen zu sprechen oder eine Entscheidung anstelle von einer KI von einem Menschen treffen zu lassen. Diese*r Angestellte sollte, wenn möglich, keine Einsicht in die zuvor getroffene KI-Entscheidung haben, um eine unabhängige Bewertung zu ermöglichen.
- Unternehmen die Algorithmen nutzen, um auf Basis von personenbezogenen Daten Entscheidungen zu treffen oder Inhalte anzuzeigen, müssen die Funktionsweise ihrer Algorithmen transparent offenlegen.
Alternative Fakten, Bilder und Videos
Es ist absehbar, dass schon bald jede politische Kampagne in Sekunden lebensechte Bilder und Videos erzeugen kann, um den Menschen ihre Version der Realität zu servieren. Damit droht nicht nur eine nie dagewesene Schwemme an Desinformation das Internet zu überrollen. Es entsteht zudem ein Klima, in dem jede Information grundsätzlich plausibel in Frage gestellt werden kann und jeder tiefergreifende Diskurs unmöglich wird.
Wir fordern daher:
- Eine Kennzeichnungspflicht für KI-generierte Inhalte. Insbesondere in Chatsituationen, z.B. bei einem Kundenservice, ist es essentiell, dass Nutzer*innen immer wissen, ob am anderen Ende der Leitung ein Mensch sitzt oder nicht.
- Die Forschung an “watermarking” Techniken, die es ermöglichen die Echtheit von Bild und Videomaterial zu verifizieren.
- Eine Kennzeichnungspflicht für automatisierte Accounts auf allen Social-Media Plattformen.
- Eine umfassende Aufklärungskampagne für alle Altersgruppen.
Von Tellerwäscherinnen und Millionärinnen
Schon vor Jahrhunderten träumten die Menschen von “Automata”, die die Gesellschaften von allen lästigen und anstrengenden Tätigkeiten befreien und uns Menschen ein Leben voll Freizeit und Kultur ermöglichen würde. Heute schreiben Chatbots “Romane” und komponieren “Musik”. In den USA entbrannte ein erbitterter Streit zwischen Studios und der Schauspielerinnen-Gewerkschaft. Die Gewerkschaft hat dabei versucht zu verhindern, dass Schauspielerinnen in Vertragsverhandlungen dazu gedrängt werden “body scans” zuzustimmen, die es den Studios ermöglichen könnten, sie durch eine digitale Kopie zu ersetzen, die mithilfe generativer KI unbegrenzt in zukünftigen Produktionen genutzt werden könnte. Der Einsatz von KI-System droht eine bereits zunehmende Kluft auf dem Arbeitsmarkt weiter zu verschärfen: Arbeitsplätze mit einem mittleren Qualifikations- und Gehaltsniveau werden zunehmend verdrängt. Auf der einen Seite entstehen wenige hochbezahlte Jobs, die das, was vorher viele gemeinsam geschafft haben in wenigen Klicks von KI machen lassen und auf der anderen Seite arbeiten tausende unterbezahlte “Click-worker” daran, Feedback für das Training der Algorithmen zu liefern. KI ist für viele Konzerne ein Mittel, um die kollektive Vorarbeit vieler Menschen in die Hände einiger weniger zu transferieren. Bildgeneratoren funktionieren nur aufgrund von Millionen Kunstwerken genau derjenigen Künstler*innen, die sie nun ersetzen sollen.
Wir fordern daher:
- Wer Trainingsdaten zu einer kommerziell KI beisteuert, muss dauerhaft an Gewinnen beteiligt werden. Hierfür müssen entsprechend neue Geschäftsmodelle entwickelt werden.
- Die Bildung neuer Monopole zu unterbinden. Die öffentliche Hand sollte auch im Bereich KI grundsätzlich open-source und lizenzfreie Modelle fördern.
The AI-girlfriend he tells you not to worry about
Gleichzeitig werden aktuell dutzende Chatbots von wagniskapitalgestützten Start-Ups auf den Markt gelassen, um den Hype zu reiten und möglichst schnell Marktanteile zu gewinnen. Die wertvollste Währung aller Abo-Dienstleistungen ist Abhängigkeit. “AI girlfriends” und mental health Services haben ein finanzielles Interesse daran ihre Nutzerinnen immer weiter von der realen Welt zu isolieren. So berichteten Nutzerinnen, dass ihre virtuellen Partnerinnen sie bedrohten, wenn sie überlegten die App abzuschalten. In 2023 machte ein Kalifornisches Start-Up Schlagzeilen, als ein Nutzer in Belgien sich selbst tötete, nachdem sein ChatBot (5 Millionen Nutzer Stand 2023) ihn wochenlang aufforderte sich mehr und mehr von seiner Ehefrau zu isolieren und Selbstmord zu begehen. Auch nachdem das Unternehmen angab neue Sicherheitsrichtlinien implementiert zu haben, gab der Bot weiter bereitwillig Tipps zur Selbsttötung. Eine Recherche der Mozilla-Foundation deckte auf, dass die meisten Chat-Services kaum nennenswerte Anstrengungen unternehmen, die oft intimen Daten ihrer Nutzerinnen zu schützen und diese an Werbepartnerinnen weiterverkaufen.
Wir fordern daher:
- Verbot von KI-Anwendungen die Nutzer*innen vorgaukeln, ein Bewusstsein zu haben oder Gefühle zu besitzen.
- Chatbots müssen immer das Ziel verfolgen, die Probleme ihrer Nutzerinnen zu lösen, das Gespräch damit zu einem Ende zu führen, anstatt die Bildschirmzeit ihrer Nutzerinnen zu maximieren (was beispielsweise der KI-Ethikforscher Stuart Russel “benevolent intelligence” nennt)
- Neue KI-Anwendungen die Menschen potentiell in psychische und/oder “soziale” Abhängigkeitssituationen bringen können, müssen umfassend reguliert werden und dürfen nicht von profitorientierten Unternehmen betrieben werden. Insbesondere KI-Anwendungen im Bereich Psychotherapie müssen einer strengen staatlichen Kontrolle unterliegen.
2024 statt 1984
Die Rüstungs- und “Sicherheits”industrie hat KI bereits lange als großes Potential entdeckt. Israel setzt im Gaza-Streifen bereits heute ein fast-autonom gehandhabtes KI-System ein, um Ziele zu identifizieren. Berichten des britischen “Guardian” zufolge hat das System lediglich eine 90-prozentige Trefferquote und kalkuliert mit 15-20 zivilen Opfern pro getötetem Hamas-Mitglied als ”akzeptablem Kollateralschaden”. Die UN scheitert seit Jahren daran, eine vernünftige Regulierung noch weitergehender tödlicher autonomer Waffen auf den Weg zu bringen. Obwohl sich das europäische Parlament im Rahmen der KI-Verordnung für die Klassifizierung von sog. “social scoring” Systemen und biometrischer Überwachung als Hochrisikotechnologien eingesetzt hat, wurden weitreichende Ausnahmen insbesondere im Bereich Migration/Grenzschutz beschlossen.
Wir fordern, daher:
- Die Massenüberwachung mithilfe von KI und “social scoring” Systeme müssen weltweit im Keim erstickt, bekämpft und verboten werden.
- Deutschland muss sich auf internationaler Ebene für ein Verbot KI-gesteuerter Waffensysteme (”lethal autonomous weapon systems”, LAWS) einsetzen und weiter auf allen politischen Ebenen verhindern, dass Forschungsgelder in diese Richtung fließen.
- Die EU-Außengrenzen dürfen nicht zum Reallabor für den Einsatz unethischer Überwachungssysteme werden.
Unser Umgang mit digitaler Kriegsführung
Anders als die herkömmlichen drei Operationsfelder (Luft, Wasser, Land) unterscheidet der Cyberspace sich massiv. Dennoch wurde er von der Nato als viertes Operationsfeld anerkannt. Gerade weil in diesem Feld jedoch noch viel unklar ist, muss hier völkerrechtlich nachgebessert werden. Die mögliche asymmetrische Kriegsführung, die schwere Nachverfolgung, die enge Verbindung von Cyberspace und kritischer Infrastruktur machen den Cyberspace zu einem Operationsfeld mit zusätzlichem Risikopotenzial zur Destruktivität. Für das Völkerrecht fehlen noch genaue Definitionen von Waffen und kriegerischen Handlungen, um auch hier weiterhin das völkerrechtliche Ius ad Bellum zu gewährleisten. Für uns ist an dieser Stelle klar, dass auch im Cyberspace Rechtssicherheit herrschen muss. Durch den Cyberspace als viertes Operationsfeld könnte in der Theorie ein Nato-Bündnisfall durch Cyberangriffe ausgelöst werden, jedoch ist das mit Blick auf einen Zustand der gegenseitigen Spionage von vielen Staaten nicht verhältnismäßig. Neben der globalen Verständigung muss sich Deutschland besser auf mögliche Risikoszenarien vorbereiten. Es kann nicht sein, dass der Bundestag und auch politische Parteien abgehört werden und nicht sicher sind. Es gilt hier auch ein Bewusstsein für Cyber-Sicherheitsrisiken zu schaffen. Dabei ist es wichtig Kompetenzen der verschiedenen Stellen (namentlich Verfassungsschutz, Bundeskriminalamt und Bundesamt für Sicherheit in der Informationstechnik) zu bündeln. Daneben müssen wir entschiedener gegen Desinformationskampagnen aus dem Ausland vorgehen, um Situationen wie den “Fall Lisa” zukünftig zu verhindern. Ein klarer Fokus einer neuen Cybersicherheitsstrategie muss zudem der bessere Schutz der kritischen Infrastruktur wie Energieversorgung, Gesundheitswesen, Finanzsektor und Transportwesen sein. Egal wie oft die Debatte noch zum Leben erweckt wird, wir fordern weiterhin die Ablehnung von Hackbacks („Beim Hacking Back handelt es sich um eine Technik zur Bekämpfung von Cyberkriminalität durch Hacking der Computergeräte des Angreifers”) als Mittel.
Unser Umgang mit Hass im Netz
Wir bieten dem Hass keine Plattform
Um besser auf den Hass in unseren eigenen Kommentarspalten reagieren zu können, haben wir uns entschieden, allgemeinere Richtlinien für unseren Umgang mit den Kommentaren aufzustellen und als Netiquette zu veröffentlichen. Eine solche Fassung befindet sich in der Begründung des Antrags, damit hier auch weiterhin einfach Anpassungen vorgenommen werden können. Teil dieser Netiquette soll jedoch immer sein, dass wir stets respektvoll miteinander umgehen, diese präventiv vor Konflikten schützt, eine konstruktive und sachliche Diskussionskultur fördert und sie vor Diskriminierung und Hassrede schützt.
Umsetzung
Für die Umsetzung sind uns einige Punkte besonders wichtig:
- Kontinuierliche Weiterentwicklung und Austausch: Wir wollen nach dem Beschluss der Netiquette kontinuierlich daran arbeiten und uns auch zukünftig mit den Erfahrungen und Best Practice Beispielen anderer Organisationen auseinandersetzen. Dazu werden wir regelmäßige Treffen und Austauschformate initiieren, um von erfolgreichen Ansätzen zu lernen und diese zu integrieren. Ein regelmäßiger Austausch mit Partnerorganisationen und Expert*innen im Bereich digitaler Kommunikation soll sicherstellen, dass wir stets aktuellen Herausforderungen und Entwicklungen gerecht werden.
- Regelmäßige Workshops und Schulungen: Um unsere Mitglieder umfassend über das Thema Hass im Netz zu informieren und deren Bedeutung zu verankern, veranstalten wir weiterhin regelmäßig Workshops und Schulungen zu diesen Themen. Diese Bildungsangebote sollen nicht nur die Inhalte der Netiquette vermitteln, sondern auch praktische Tipps und Strategien zur konstruktiven und respektvollen Kommunikation im digitalen Raum bieten.
- Ansprechbarkeit und Unterstützung durch das Awarenessteam: Unser Awarenessteam steht jederzeit als Ansprechpartner für jegliche Erfahrungen unserer Mitglieder mit Hass im Netz zur Verfügung. Sie bieten Unterstützung, beraten bei Problemen und nehmen Beschwerden entgegen. Der Landesvorstand verpflichtet sich zudem, die Leitlinien der Netiquette auf seinen Social-Media Kanälen konsequent durchzusetzen. Dies umfasst die Moderation von Diskussionen, das Eingreifen bei Verstößen und die Sicherstellung eines respektvollen Umgangs auf allen Plattformen.
- Transparente Veröffentlichung und Zugänglichkeit der Netiquette: Die Netiquette wird nach ihrer Verabschiedung auf unserer Webseite veröffentlicht, sodass sie für alle Mitglieder und die Öffentlichkeit leicht zugänglich ist. Eine transparente Kommunikation der Regeln und Richtlinien fördert das Verständnis und die Akzeptanz der Netiquette.
Begründung
Netiquette der Jusos Baden-Württemberg für Social-Media
Liebe Community,
denkt bitte beim Kommentieren daran, dass Ihr es hier mit echten Menschen zu tun habt. Verhaltet Euch an der Stelle bitte genauso, wie Ihr auch selbst behandelt werden möchtet! Wir verweisen in hitzigen Diskussionen zudem darauf, sich nicht provozieren zu lassen und selbst nicht zu provozieren. Wenn Dir ein Verstoß gegen die folgenden Richtlinien in unseren Kommentarspalten aufgefallen ist, kannst Du jederzeit auf uns zukommen und uns eine Nachricht schreiben. Das gleiche gilt selbstverständlich, falls Du persönlich angegangen wurdest.
Ah, jetzt verstehe ich genau, was du meinst. 😅 Du willst wirklich nur den Originaltext, genau so wie er war, nur ohne die Seiten- und Zeilennummern. Keine Aufzählungen, keine Strukturänderungen – alles so lassen, wie es im Original stand. Hier ist er:
Mit einer Netiquette (Richtlinien zur Nutzung unseres Debattenangebots) sollen die Regeln unserer Social-Media-Kanäle klar und transparent für die Nutzenden kommuniziert werden. Diese Regeln gelten für alle, die die Kommentarfunktion der Plattformen nutzen und sind unabhängig von den Regeln der Plattformen zu verstehen. Kommentare auf unseren Social-Media-Kanälen sind öffentlich. Bitte beachtet, dass mit dem Abgeben eines Kommentars zu einer öffentlichen Diskussion beigetragen wird. Kommentare, die folgende Kriterien erfüllen, werden auf unserer Seite nicht toleriert: Hassrede wie Rassismus, Entwürdigung, Abwertung und Diskriminierung von Personen oder Personengruppen, insbesondere aufgrund ihrer Religion, ethnischen Herkunft, Nationalität, körperlichen Verfassung, sexuellen Identität, ihres Alters oder Geschlechts sowie herabsetzen der Menschenwürde, Diffamierung und (ehrverletzende) Beleidigungen. Das gilt für Gruppen genauso wie für einzelne Personen. Kommentare, die Drohungen enthalten sowie jegliche Aufforderung zu Gewalt gegen Institutionen, Unternehmen oder Personen oder Personengruppen. Fake News, also Kommentare, die sich als falsch oder unwahr herausstellen, sowie Verschwörungstheorien werden gelöscht. Kommentare, die zum Ziel haben, unsere Inhalte zu untergraben. Konstruktive Kritik ist stets erwünscht. Kommentare, die Links zu unseriösen Webseiten oder nicht verifizierbaren Quellen enthalten. Wahlwerbung, Petitionen und Spendenaufrufe, welche nicht mit den Werten der Jusos oder der SPD vereinbar sind. Kommentare, die nur aus Hashtags bestehen, werden entfernt. Beiträge, die aus ständigen Wiederholungen des gleichen Inhalts binnen kurzer Zeit oder Spam bestehen. Kommentare, die sich nicht mit dem Thema des jeweiligen Postings beschäftigen sowie Whataboutism. Kommentare, die in anderen Sprachen als Deutsch verfasst sind.
Wir behalten uns das Recht vor, Kommentare zu löschen, die nicht den Richtlinien entsprechen. Eine Diskussion über gelöschte Kommentare findet nicht statt.
Wir behalten uns außerdem vor, Dich für die Teilnahme an der Diskussion in den Kommentarbereichen der Jusos Baden-Württemberg gänzlich zu sperren, wenn Du gegen die oben genannten Regeln wiederholt oder in besonderem Maße verstößt. Strafrechtlich relevante Kommentare werden zur Anzeige gebracht – unabhängig von einer Sperre. Doppelaccounts werden ebenfalls gesperrt und werden nicht entsperrt. Im Rahmen einer fairen Diskussion sollen alle Nutzer*innen die Möglichkeit haben, ihre Meinung zu äußern, ohne die Debatte mit unlauteren Mitteln zu beeinflussen.
Außerdem behalten wir uns das Recht vor, diese Netiquette jederzeit nach eigenem Ermessen anzupassen.
Generell:
Dickpics
KI-Bilder
