NETPEACE-Forderungskatalog
(Version 1.2, Stand 13. Oktober 2017)
Lücken im Strafrecht schließen
Aufstockung der Staatsanwaltschaften für digitale Tatbestände
Bessere Unterstützung der Opfer und Präventionsmaßnahmen für TäterInnen
Bewusstseinsbildung in Schulen und in der Jugendarbeit
Kennzeichnungspflicht für politische Parteien auf Social-Media-Plattformen
Wettbewerbs- und Kartellrecht für globale Konzerne stärken
Mehr Gerechtigkeit bei der Unternehmensbesteuerung
Europäische Digitalstrategie
Recht auf digitale Gegendarstellung: Richtigstellungsbenachrichtigung bei identifizierten Falschmeldungen aufgrund gerichtlicher Entscheidungen
Verpflichtende Transparenz bzgl. der Inhaltskontrolle in sozialen Medien
Abgestuftes Notice-and-fair-balance-Verfahren
Widerspruchsrecht für Betroffene bei Löschungen durch die Plattform
Öffnung der Plattform-Daten für die unabhängige Wissenschaft
Einführung einer »Niederlassungsfiktion«
Möglichkeit eines ungefilterten News-Feeds
Datenportabilität, Interoperabilität und offene Standards
Abrüstung im Cyberwar
Faktenbasierte Sicherheitspolitik
Kein zusätzliches Überwachungspaket
Keine Vorratsdatenspeicherung
Absicherung der Netzneutralität
Stärkung des Datenschutzes
Maßnahmen zur Verlängerung der Lebensdauer und zur Erhöhung der Sicherheit von Software- und Hardware-Produkten
Diese erste Version des NETPEACE-Forderungskatalogs stellt eine kompakte Zusammenfassung der wichtigsten Anliegen von NETPEACE dar. NETPEACE betrachtet diesen Forderungskatalog ganz bewusst als lebendiges Dokument, da es gerade in Zusammenhang mit der digitalen Zukunft laufend Entwicklungen gibt, die immer wieder neu zu berücksichtigen sind.
Im Sinne von NETPEACE als einer »Bewegung der Vielen« laden wir Expertinnen und Experten aus den unterschiedlichsten Bereichen sowie persönlich Betroffene zu einer breiten und offenen Diskussion über die konkrete Ausformulierung der einzelnen Forderungen ein. Die ausgewogene Berücksichtigung aller Grundrechte ist uns ein besonderes Anliegen. Insbesondere müssen sämtliche politische Maßnahmen in den vom Forderungskatalog umfassten Bereichen vollständig mit dem Recht auf Achtung des Privatlebens, dem Recht auf freie Meinungsäußerung und dem Recht auf Versammlungsfreiheit kompatibel sein, wie sie in den Artikeln 8, 10 und 11 der Europäischen Menschenrechtskonvention verankert sind.
Wir danken dem Team von epicenter.works ausdrücklich für die wissenschaftliche Beratung!
Um verschiedene Formen von Hass und verbaler oder bildlicher Gewalt im Netz bzw. auf Social-Media-Plattformen besser verfolgen zu können, bedarf es gesetzlicher Anpassungen. Dies betrifft vor allem das Gutheißen von Gewalt gegen einzelne Personen sowie Beleidigungen und Bloßstellungen auf sexualisierte Art und Weise. In besonders schweren Fällen muss es möglich sein, auch bereits nach einmaligen Ereignissen – und nicht erst nach fortgesetzter Belästigung der Opfer über eine längere Zeit – die strafrechtliche Verfolgung aufzunehmen. Zusätzlich sollten bestimmte Privatanklagedelikte in Ermächtigungsdelikte umgewandelt werden, damit die Verfolgung durch die Staatsanwaltschaft wahrgenommen wird, wenn das Opfer diese Delikte anzeigt bzw. deren Verfolgung zustimmt.
Für die Verfolgung von Hass im Netz sind im Stellenplan des Bundes ausreichend staatsanwaltschaftliche Planposten zu schaffen. Ideal wäre eine Sondereinrichtung ähnlich der Korruptions-Staatsanwaltschaft, zumindest ist jedoch für spezialisierte Planstellen innerhalb der bereits bestehenden Staatsanwaltschaften zu sorgen. Außerdem sollten in der Aus- und Fortbildung sowohl zur Spezialisierung als auch zur Stärkung der »digitalen Allgemeinbildung« Schwerpunkte gesetzt werden.
Es müssen ausreichend Budgetmittel für eine bessere Beratung und Unterstützung der Opfer von Hass im Netz zur Verfügung gestellt werden. Erste vielversprechende Ansätze wie die »ZARA-Beratungsstelle gegen Hass im Netz« sollten nach positiver Evaluierung rasch ausgebaut werden. Es muss aber auch klar sein, dass der Hass der TäterInnen durch eine härtere strafrechtliche Verfolgung nicht automatisch verschwindet. Deshalb tritt NETPEACE auch für Investitionen in die Prävention ein.
Im Zuge von »digitalen Wochen« in Schulen und Jugend-Bildungseinrichtungen soll das Bewusstsein für die Gefahren und Auswirkungen von Hass im Netz und Fake News erhöht werden. Ziel ist es zudem, die entsprechende soziale Kompetenz der Jugendlichen im Umgang mit neuen und klassischen Medien zu stärken und Methoden zu vermitteln, sicher und selbstbestimmt mit den eigenen Daten umzugehen.
Der politische Diskurs im Netz muss transparent und fair erfolgen. Deshalb muss es auf Social-Media-Plattformen eine Kennzeichnungspflicht für Parteien und wahlwerbende Listen geben, die auch für deren Teil- und Vorfeld-Organisationen sowie für alle von diesen finanzierten Blogs und Nachrichtenportale gilt. Der Versand von »Dark Posts« auf Social-Media-Plattformen (nur an kleine Zielgruppen gerichtete Postings, die für die Allgemeinheit unsichtbar sind) soll von derart gekennzeichneten Profilen aus nicht möglich sein.
Im Bereich Falschmeldungen/Ehrendelikte sollte das Recht auf eine digitale Gegendarstellung etabliert bzw. ausgebaut werden, wonach all jenen UserInnen, denen eine gerichtlich festgestellte Falschmeldung bzw. Verleumdung angezeigt wurde, auch die Gegendarstellung angezeigt werden muss. Eine etwaige Richtigstellungsbenachrichtigung muss über alle Kanäle ausgesendet werden, in denen die Falschmeldung zu sehen war (also auch in den Profilen jener UserInnen, die die Falschmeldung geteilt haben), sowie allen UserInnen angezeigt werden, die mit der verursachenden Meldung interagiert haben (Likes, Kommentare etc.). Die Verpflichtung zur Richtigstellung soll so gestaltet werden, dass dadurch keine Verpflichtung zu zusätzlichem Tracking entsteht.
Dominante Social-Media-Plattformen* müssen verpflichtet werden, alle ihre Aktivitäten zur Inhaltskontrolle und Löschung rechtswidriger Inhalte offenzulegen sowie überprüfbare Löschstatistiken zu publizieren, die detaillierte Kennzahlen über die Anzahl und Art der Fälle sowie den Ort und die Dauer der Prüfung enthalten. Wenn Social-Media-Plattformen in ihren AGB Kriterien festlegen, nach denen gewisse Inhalte von ihnen automatisch gesperrt werden, müssen diese einfach verständlich und nicht diskriminierend formuliert sein und den UserInnen klare Rückschlüsse darüber erlauben, welche Inhalte erlaubt und welche verboten sind. Es muss für die UserInnen zudem vorhersehbar sein, welche Konsequenzen (z.B. Account-Sperre) bei einem derartigen Verstoß gegen die AGB zu erwarten sind. Betroffene müssen jedoch die Möglichkeit erhalten, die konkrete Begründung der Prüfung von ihnen publizierter Inhalte einsehen und diese in einem Diskriminierungsfall vor einem Gericht beanstanden zu können.
Je nachdem welche Grundrechte durch das Hochladen eines (vermeintlich) rechtswidrigen Inhalts betroffen sind, braucht es eine angemessene Reaktion durch die Plattform, für die die Plattform jeweils auch zur Verantwortung zu ziehen ist. Wir fordern eine gesetzliche Regelung auf EU-Ebene im Sinne eines abgestuften Notice-and-fair-balance-Verfahrens. Unabhängig davon sind folgende Maßnahmen für dominante Social-Media-Plattformen bereits heute nationalstaatlich zu implementieren:
a) Automatische Löschung absolut rechtswidriger Inhalte
Nur für Inhalte, die Grundrechtsverletzungen betreffen, welche keiner Verhältnismäßigkeitsprüfung zugänglich sind (z.B. Kinderpornografie), ist eine automatische Löschung mittels Upload-Filter zulässig, sofern diese Inhalte mittels der zur Verfügung stehenden Technik mit sehr hoher Wahrscheinlichkeit zu entdecken sind. Für das Zustandekommen und die Anwendung derartiger Lösch-Software müssen starke Transparenzverpflichtungen gelten, die Auswahl der Inhalte muss einer rechtsstaatlichen Kontrolle unterliegen und in regelmäßigen Abständen von unabhängiger Stelle evaluiert werden. Die versuchte Veröffentlichung absolut rechtswidriger Inhalte stellt den Versuch einer schweren Straftat dar und muss vom Plattformbetreiber den Behörden zur Anzeige gebracht werden. Die gelöschten Inhalte sind für Beweiszwecke durch die Plattform für einen bestimmten Zeitraum zu speichern. Gleichzeitig ist klarzustellen, dass jede Form einer automatisierten Löschung ein hohes Risiko für die Meinungs- und Informationsfreiheit birgt. Jede Maßnahme und Technologie erfordert daher höchste Vorsicht und eine vollkommen transparente und breite Diskussion über die konkrete Umsetzung, ganz im Sinne der oben formulierten Forderung nach verpflichtender Transparenz bzgl. der Inhaltskontrolle in sozialen Medien.
b) Effizientes Notice and take down bei gefährlicher Drohung und Aufrufen zu Gewalt
Es muss klare und verständliche Regelungen geben, die eindeutig fassbare Fälle von gefährlichen Drohungen und Aufrufen zu Gewalt gegen geschützte Gruppen (Hassrede) und bestimmte Personen mit schwerwiegenden Folgen definieren, in denen gemeldete Postings umgehend vorläufig gelöscht und bei einer staatlichen Stelle gemeldet werden müssen. Plattformbetreiber dürfen nach geltendem EU-Recht nicht verpflichtet werden, selbst alle Postings zu sichten, müssen aber sofort aktiv werden, sobald sie auf derartige Postings hingewiesen werden und die Rechtsverletzung eindeutig ist. UserInnen müssen die Möglichkeit haben, explizit auf die Illegalität eines Inhalts hinzuweisen (Notice of illegality). Die Prüfung einer solchen Meldung und eine etwaige vorläufige Löschung haben innerhalb einer festgelegten Frist zu erfolgen, ihnen darf nicht mit einer Löschung auf Basis der AGB zuvorgekommen werden. Wenn Inhalte den Charakter einer offensichtlichen Rechtswidrigkeit haben, gibt es eine Verpflichtung des Staates, zeitnah zu handeln. Über die strafrechtlichen Konsequenzen des Inhalts und seine endgültige Löschung hat eine staatliche Stelle zu entscheiden. Sollte die staatliche Stelle die Löschung aufheben, weil die Löschung offensichtlich nicht gerechtfertigt war, oder erkennen, dass einer Meldung einer Userin bzw. eines Users vorwerfbar nicht nachgegangen wurde, ist ein Bußgeld für die Online-Plattform zu verhängen. Der Plattformbetreiber muss den Beschwerdeführer und den von einer solchen Löschung Betroffenen über den Ausgang und die Begründung der Prüfung informieren.
c) Staatliche Prüfung für strittige oder minderschwere Inhalte
Für Inhalte, die nicht unter die vorher genannten Deliktsgruppen fallen, muss es eine staatliche Stelle geben, die rasch einstweilige Verfügungen erlassen kann, um Klarheit zu schaffen, ob der Plattformbetreiber zur Löschung verpflichtet ist. Hierbei muss den UserInnen die Möglichkeit gegeben werden, sich zu rechtfertigen und in möglichst kurzer Frist eine gerichtliche Entscheidung zu erlangen. Der Plattformbetreiber ist bezüglich der Meldung an die Behörden und einer allfälligen Löschung an Fristen zu binden.
d) Meldungen von Urheberrechtsverletzungen nur noch mit Nachweis des Rechtsanspruchs
Um Missbrauch zu vermeiden, muss die Meldung einer Urheberrechtsverletzung einen Nachweis des Rechtsanspruchs beinhalten, bevor der Inhalt gelöscht werden darf. Die Klärung der Rechtsstreitigkeiten hat am Zivilrechtsweg zu erfolgen. Für Urheberrechtsverletzungen darf es keine verpflichtenden Upload-Filter geben.
Plattformen müssen eine Meldestelle für UserInnen einrichten, die sich durch Löschungen ihrer Inhalte oder Sperren ihres Kontos in ihrem Recht auf Meinungsfreiheit eingeschränkt sehen. Die Plattform muss diesen Meldungen nachgehen und den UserInnen eine Begründung für ihre Entscheidungen liefern. Über die gemeldeten Fälle, deren Ausgang und Begründung ist eine Statistik zu veröffentlichen.
Es müssen Wege gefunden werden, unter Schutz personenbezogener Daten unabhängige Forschung über gesellschaftliche Phänomene auf dominanten Social-Media-Plattformen zu ermöglichen. Der Zugang zu den Daten dieser Plattformen darf nicht nur auf Institute beschränkt sein, die von der Plattform selbst ausgewählt wurden, da andernfalls eine faktenbasierte Debatte über die gesellschaftspolitischen Auswirkungen dieser Plattformen nicht möglich ist.
Bei Rechtsstreitigkeiten im Zusammenhang mit Meinungsäußerungsfreiheit und dominanten Social-Media-Plattformen mit starker Marktmacht soll das anwendbare Recht des Landes der jeweiligen UserInnen gelten bzw. der Gerichtsstand nicht im Land des Betreibers liegen (»Niederlassungsfiktion«).
Die Algorithmen der Betreiber von Internet-Suchmaschinen und Social-Media-Plattformen bestimmen heute weitgehend darüber, was ihre UserInnen im Netz finden, sehen und lesen. Um das Bewusstsein für die Problematik sogenannter »Echokammern« zu schärfen und die Wahlmöglichkeiten der UserInnen zu erhöhen, soll es auf dominanten Social-Media-Plattformen je nach technischer Machbarkeit möglich sein, Inhalte in einer ungefilterten und chronologischen Reihung anzuzeigen. Die Betreiber dieser Dienste sollen verpflichtet werden, eine größere Algorithmen-Auswahl anzubieten bzw. dafür zu sorgen, dass die UserInnen über die konkrete Ausgestaltung der für sie zur Anwendung kommenden Algorithmen weitgehend selbst bestimmen können.
Plattformbetreiber dürfen UserInnen nicht mit ihren eigenen Nutzerdaten in »Geiselhaft« halten. Der Aufbau von Beziehungen und der Austausch von Nachrichten zwischen sozialen Netzwerken soll (sofern technisch und datenschutzrechtlich machbar) möglich gemacht werden. Dies betrifft in besonderem Maße die elektronische Portation aller personenbezogenen Daten zwischen zwei sozialen Netzwerken, um UserInnen den Wechsel auf eine andere Social-Media-Plattform zu erleichtern. Um es neuen Plattformbetreibern einfacher zu machen, Angebote zu schaffen, die UserInnen zum Umstieg auf deren System bewegen, soll es eine verpflichtende Offenlegung und Verfügbarmachung von Schnittstellen (APIs) geben, sofern es dafür eine datenschutzfreundliche und sichere technische Lösung gibt. Offene Standards und Protokolle sollen gegenüber proprietären Kommunikationswegen bevorzugt werden.
Offensive Cyberwaffen, die geheim gehaltene Sicherheitslücken in fremden IT-Systemen ausnützen, können fatale Schäden in der kritischen Infrastruktur eines Staates und an privaten Geräten anrichten. Wir fordern ein internationales Abrüstungsabkommen zur Eindämmung der Verbreitung von offensiven Cyberwaffen und eine Verpflichtung für staatliche Stellen und Private, Sicherheitslücken in fremden IT-Systemen dem Hersteller dieser IT-Systeme zu melden.
NETPEACE fordert eine sogenannte »Überwachungs-Gesamtrechnung«, nach der in regelmäßigen Abständen alle Sicherheits- bzw. Anti-Terror-Gesetze auf ihre Verfassungskonformität sowie ihren tatsächlichen, objektiv nachweisbaren Beitrag zur Sicherheit evaluiert werden müssen. Für neue Gesetze heißt das: Der Gesetzgeber muss vor jeder Einschränkung von Grund- und Freiheitsrechten belegen, dass eine Maßnahme notwendig, nützlich und verhältnismäßig ist. Neue Sicherheitsgesetze dürfen nur noch mit einem Ablaufdatum (»Sunset clause«) beschlossen werden, die den Gesetzgeber dazu zwingt, die Maßnahme nach einer positiven Evaluierung allenfalls zu verlängern, oder wegen fehlender Wirkung wieder aus dem Gesetz zu streichen.
Die von Innen- und Justizministerium vorgeschlagene Novellierung des Sicherheitspolizeigesetzes und der Strafprozessordnung ist abzulehnen. Für die einzelnen Maßnahmen dieses Überwachungspakets (Bundestrojaner, verstärkte Videoüberwachung, Autokennzeichenerfassung, Ausweitung des Lauschangriffs im Auto, Legalisierung von IMSI-Catchern, »Quick Freeze«, Registrierungspflicht für SIM-Karten), wurde weder eine Evaluierung bereits bestehender Sicherheitsgesetze noch eine Überwachungs-Gesamtrechnung und eine Wirkungsfolgenabschätzung bzgl. der Auswirkungen auf gesetzlich verankerte Grundrechte durchgeführt. Einen solchen überaus teuren und zudem äußerst fragwürdigen Umbau Österreichs in einen Polizei- und Überwachungsstaat werden wir verhindern.
Alle Formen der anlasslosen Massenüberwachung (Vorratsdatenspeicherung) sind abzulehnen. Diese Haltung stützt sich nicht zuletzt auch auf die höchstgerichtliche Rechtsprechung des Europäischen Gerichtshofs und des österreichischen Verfassungsgerichtshofs.
Digitale Plattformen und ihre Geschäftsmodelle weisen verschiedene Besonderheiten (z.B. Netzwerkeffekte) auf, aufgrund derer die Entstehung von Marktmacht in der digitalen Ökonomie einer anderen Dynamik folgt als in traditionellen Märkten. Das Wettbewerbs- und Kartellrecht und seine Umsetzung müssen an diese Besonderheiten angepasst werden, um übermäßiger Marktmacht einzelner Digital-Konzerne entgegenzuwirken. Darüber hinaus müssen alle Rechtsinstrumente der Mitgliedsstaaten der EU konsequent eingesetzt werden, um Verstöße gegen Wettbewerbs- und Kartellrecht zu verfolgen.
Steuern müssen dort bezahlt werden, wo Gewinne erwirtschaftet werden. Internationale Bemühungen sind zu unterstützen, die aggressive Steueroptimierung der großen Konzerne effektiv zu beseitigen und so steuerliche Wettbewerbsneutralität zu heimischen Unternehmen herzustellen. Aus Gründen des fairen Wettbewerbs zwischen den Mediensparten sollen Online-Werbung, Rundfunk- und Printwerbung bzgl. der Werbeabgabe gleich behandelt werden.
Europa benötigt ein massives Investitionspaket zur Unterstützung einer europäischen Digitalwirtschaft und weitere Vereinheitlichungen im digitalen Binnenmarkt. Gleichzeitig muss der Wettbewerb in Europa gestärkt werden, um eine zu starke Konzentration von Marktmacht in den Händen weniger Unternehmen zu verhindern. Investitionen der öffentlichen Hand in Breitband-Infrastruktur sollten nur noch auf zukunftssichere Technologien (Glasfaser) setzen. In öffentlichen Vergaben sollten aus Perspektive der Nachhaltigkeit und Transparenz freie Software, offene Standards und europäische IT-Lösungen bevorzugt werden. Der Aufbau einer europäischen Chip-Hersteller- sowie IT-Security-Industrie und alternativer Online-Plattformen (mit Geschäftsfeldern unabhängig von der Monetarisierung personenbezogener Daten) sollte gefördert werden. Öffentlich-rechtliche und staatliche Inhalte sollen auch auf alternativen, dezentralen und datenschutzfreundlichen sozialen Netzwerken präsent sein.
Das Internet muss auch in Zukunft offen, frei und wettbewerbsneutral sein. »Überholspuren« im Netz müssen verboten bleiben. Das bedeutet, dass auch weiterhin einzelne Dienste oder Diensteklassen nicht durch höhere Preise oder niedrigere Geschwindigkeiten benachteiligt werden dürfen. Netzsperren ohne eine gesetzliche Basis oder gerichtliche Anordnung dürfen nicht möglich sein. Die Bevorzugung von Spezialdiensten im öffentlichen Interesse (etwa im Gesundheitsbereich) soll nur innerhalb enger Grenzen erlaubt sein, wenn das Funktionieren dieser Angebote über das offene Internet technisch nicht möglich wäre.
Das Recht aller Menschen auf informationelle Selbstbestimmung und Kontrolle über ihre eigenen personenbezogenen Daten und insbesondere das Recht auf Datenlöschung, das in der EU-Datenschutzgrundverordnung verankert ist, muss voll durchgesetzt werden. Die Verarbeitung personenbezogener Daten darf nur basierend auf informierter Zustimmung erfolgen, die jederzeit widerrufbar sein muss. Für österreichische NGOs muss im Bereich Datenschutz ein Verbandsklagerecht geschaffen werden. Die Datenschutzbehörde muss mit mehr Ressourcen und Prüfkompetenzen ausgestattet werden, um den Datenschutz in Österreich zu stärken. Öffentliche Stellen haben oft hochsensible Informationen über die Bevölkerung und dürfen im Datenschutzrecht nicht mehr bevorzugt werden.
NETPEACE fordert ein Maßnahmenpaket zur Verlängerung der Lebensdauer und zur Erhöhung der Sicherheit von Software- und Hardware-Produkten mit Netzwerkfunktionalität, welches Mindeststandards für deren IT-Sicherheit vorsieht (z.B. garantierte Mindestzeiträume für Sicherheits-Updates) und geplante Obsoleszenz in Form eingebauter Ablaufdaten von Hard- und Software verbietet.