Die Benutzung einer KI ohne Anmeldung reicht wahrscheinlich nicht aus, um seine Anonymität zu wahren.
Eine KI erkennt jede/n an der Sprache, am Äußeren, an der Mimik, an den Gewohnheiten usw. wieder. Auch am Gang, soweit man ihn auf der Flucht nicht durch einen Stein im Schuh verändert. Wie der jugendliche Ich -Erzähler aus Cory Doctorows Roman „Little Brother“, in dem es um staatliche Überwachung geht.
"Put these pebbles in your shoes before you put them on — " It’s OK. I sprained my foot. No gait recognition program will spot me now. "
Ein Zitat im Vorspann des Buchs: "Little Brother is a scarify realistic adventure about how homeland security technology could be abused to wrongfully imprison innocent Americans. A teenage hacker-turned-hero pits himself against the government to fight for his basic freedoms. This book is action-packed with tales of courage, technology, and demonstrations of digital disobedience as the technophile’s civil protest. " (Bunnie Huang, author of HACKING THE XBOX )
Um es nicht zu vergessen: Bei Flathub gibt es noch das Programm „Bavarder“, das einen anonymen Zugang zu verschiedenen KI’s ermöglicht - ein Tipp von Ralf Hersel:
Ich hab da den Einsatzort für KI, da wir ja bald alle bei der Kommunikation abgehört werden und unsere Nachrichten mittels Algorithmus nach Kindesmissnrauch gescannt werden… kann sich die KI ja in die Zentralle Stelle setzen wo alle Auffälligen Nachrichten hin gesendet werden…weil wie will man diese Datenflut sonst bewerkstelligen?
300Millionen Einwohner generieren 2Milliarden Nachrichten am Tag und der Algorithmus hat eine false/positiv Genauigkeit von 0.05% (was schon verdammt gut ist) das macht 100.000.000 Nachrichten am Tag, dir überprüft werden müssen.
Das kommt darauf an, was du in ChatGPT eingibst.
Gibts du keine personenbezogenen Daten ein, ist das einzige personenbezogene Datum, das verarbeitet wird, deine Accountdaten (E-Mail oder Telefonnummer). Zwar können deine Beiträge als personenbezogenes Datum gelten, aber du nutzt es ja auf Basis einer Einwilligung.
Wenn du keinerlei personenbezogene Daten anderer Personen eingibst, ist das auf diese Personen gesehen datenschutzrechtlich unbedenklich.
Allerdings gibt es einen Haufen anderer rechtliche Dinge zu beachten. Urheberrecht, Geschäftsgeheimnisgesetz, je nach Arbeitgeber sind noch weitere Gesetze betroffen.
Wie lange „weiß“ ChatGPT, dass am 6.6.2023 um hh:mm:jjjj nach einem „Mirko, 19 Jahre“ „gefragt“ wurde?
Was wenn ich weitergehend erklärt hätte, wo Mirko lebt, wie er mit Nachnamen heißt, wie die gemeinsame Schule hieß etc.?
„Erinnert“ sich ChatGPT morgen noch daran?
Ich kann das, aus den Datenschutzbestimmungen heraus, nicht erkennen. Das MUSS aber erkennbar sein.
Diese Rechte MUSS OpenAI Kaliforniern einräumen, nicht auch anderen Personen:
The right to know information about our processing of your Personal Information, including the specific pieces of Personal Information that we have collected from you;
The right to request deletion of your Personal Information;
The right to correct your Personal Information; and
The right to be free from discrimination relating to the exercise of any of your privacy rights.
Ich schließe daraus, dass Sie uns NICHT eingeräumt werden.
Da hast du grundsätzlich recht.
Aber was machst du, wenn du aus Datenschutzbestimmungen die Speicherdauer nicht erkennen kannst? Dann nutzt du den Service halt nicht, sonst könnte man dir Rechtsmissbrauch unterstellen. So geschehen beim bewussten Ansurfen von Seiten, die Google Fonts dynamisch eingebunden haben.
Etwas anderes wäre es, wenn dort etwas falsch beschrieben ist. Denn grundsätzlich sollst du auf die Informationen vertrauen können.
Man muss hier auch unterscheiden:
ob OpenAI DSGVO konform arbeitet → offensichtlich nicht
die Folge sind Bußgelder oder Maßnahmen nach Art. 58 DSGVO
ob der Betroffene einen Schaden durch die Verarbeitung erleidet → kommt auf den Sachverhalt drauf an
Ok.
Aber die Reihenfolge darf auch eine andere sein:
Ich nutze, verführt vom hübschen und beworbenen Angebot, umfänglich.
Und DANN kommen mir Zweifel, ob das datenschutzrechtlich alles so seriös ist und will gemäß Art. 13 DSGVO nachschauen, wann das denn alles wieder gelöscht wird …
Ich meine: Innerhalb der EU darf ich zunächst einmal darauf vertrauen, dass die DSGVO eingehalten wird.
ChatGPT verführt sehr zur Preisgabe intimster Daten, indem es - scheinbar menschlich - Detailfragen stellt etc.
Aber, aber … es ist evtl kein Angebot, was zielgerichtet Europäer anspricht, deshalb ist die DSGVO evtl nicht anwendbar.
Aber es ist doch schön zu sehen, wie die USA nach und nach eine DSGVO-Kopie realisieren. Einziger GROSSER Unterschied: Sie gewähren immer nur ihren eigenen Staatsbürgern Privatheit. Die EU hält Privatheit für ein Menschenrecht, was jedem zusteht.
Das ist dann leider dein eigenes Problem.
Du liest dir ja auch vor Nutzung eines Services die AGB durch? Eventuell auch nicht. Daher sind überraschende Klauseln auch unwirksam § 305c Abs. 1 BGB
Man könnte mit diesem Rechtsgedanken allerdings auch in deine Richtung argumentieren.
Ein normaler Bürger rechnet regelmäßig mit Löschfristen, weil sie von der DSGVO vorgegeben sind.
Allerdings halte ich dafür die DSGVO zu jung und in der Breite noch nicht präsent genug, als dass man so etwas annehmen kann. Aber das mag man anders sehen.
Dahingehend sind sicher beide Sichtweisen annehmbar und die Zukunft wird zeigen, wie die Rechtsprechung das sieht.
Rechtsmissbrauch ist es nur, dann Schmerzensgeld zu verlangen.
Ich gehe davon aus, dass es nach-wie-vor zulässig ist, Seiten probeweise anzusurfen, ob „auch diese“ eine bestimmte Rechtsverletzung begehen, bspw. ein Fotograf darf sicherlich nach seinen Bildern aktiv suchen.
Selbstverständlich. Das war eigentlich impliziert.
Das sind verschiedene Sachverhalte. Beim Fotografen wurde die Rechtsverletzung bereits begangen. Beim Vorwurf des Rechtsmissbrauchs entsteht die Rechtsverletzung erst mit dem Besuch der Seite.
Es gab jetzt ein Urteil zum Rechtsmissbrauch, dessen Sachverhalt mWn an Crawling rankam oder sogar Crawling war.
Dazwischen ist viel Grauzone.
Man kann es auch so sehen: Die Rechtsverletzungen entstehen alltäglich, permanent, bei jedem Aufruf der Seite, auch von anderen.
Und das Schmerzensgeld ist ja nur ein Aspekt.
Viel teurer (Streitwert) ist der Unterlassungsanspruch, der ja ebenfalls besteht.
Das ist richtig, aber es sind subjektive Rechte. Das bedeutet, dass jeder Rechtsträger die ihn betreffende Rechtsverletzung selbst geltend machen muss.
Du kannst also nicht die Rechtsverletzung deines Nachbarn geltend machen.
Sie entstehen für dich auch erst, wenn du die Seite besuchst.
Wie gesagt, es sind subjektive Rechte.
Anders sieht es für die Aufsichtsbehörden aus, die auch ohne eigene Betroffenheit Maßnahmen geltend machen können. Oder im Rahmen des UWG die Verbraucherverbände.
Ja, danke, verstanden.
Ich meine ja den anderen Aspekt:
Die Rechtsverletzungen finden dennoch unaufhörlich, zu hunderttausenden täglich statt …
Auch dann, wenn die Verletzten nicht bemerken.
In der Regel sind dann auch Unbeteiligte Dritte betroffen: Die IP-Adresse setzt Google in Kenntnis, dass „jedenfalls jemand aus dem Umkreis“ da herumgegeistert ist. Das weitere ‚taggen‘ dieser Person ist ein Leichtes, Informationsschnippsel sind das Business von Google.
Was kann ein Benutzer konkret für seine Privatsphäre und den Schutz seiner Daten bei Chat GPT tun?
Das habe ich bis jetzt konkret gefunden (siehe auch Zusammenfassung unten): Chatgpt - privatsphäre einstellen - Footbloc. Ist das richtig oder gibt es noch mehr Tricks für die Datenschutzeinstellungen bei Chat GPT?
Unter „Einstellungen“, „Datenkontrolle“ können Sie den „Chatverlauf & Training“ deaktivieren. Ihre Daten werden nicht zum Trainieren des Modells verwendet.
Ebenfalls unter „Einstellungen“, „Datenkontrolle“ können Sie einen Export der Daten anfordern und Ihr Konto löschen.
Der Chatverlauf kann unter „Einstellungen“, „Datenkontrolle“ gelöscht werden: „Alle Chats löschen“.
Erstellen Sie Richtlinien zur Verwendung von ChatGPT.
Auch in der iPhone-App, die seit Ende Mai verfügbar ist, können Nutzer Anpassungen vornehmen: Die Einstellungen gelangen über die drei Punkte oben rechts.
Dazu möchte ich beisteuern, daß es inzwischen Browser gibt, die automatisch AI- bzw. KI-Dienste implementieren und aktivieren, wenn man sie nicht nach Updates sorgfältig deaktiviert.
Kürzlich entdeckt in den Einstellungen bei Opera …
Wenn OpenAI letztlich den Zugang zum meines Wissens allein wissensdynamischen ChatGPT 4.0 so etwa 20 €/Monat verlangt, wie teuer wird dann eine Offline-Lösung sein?
Mir ist keine Offline-Lösung bekannt, die annähernd so leistungsstark ist wie ChatGPT, siehe auch hier.
US-Unternehmen werden auch zukünftig alle Dienste, die massenhaft persönliche Daten in Empfang nehmen können, online halten und viel günstiger anbieten können als alle anderen: Dafür zu sorgen ist u.a. Aufgabe der In-Q-Tel.
Hätte die In-Q-Tel nicht ihre Aufgabe verfehlt, hätte sie nicht schon bei OpenAI angerufen?
Man erinnere sich an die Nervosität bzgl TikTok: Man erwog sogar es zwangsweise an Microsoft „verkaufen zu lassen“. Die USA wissen wie kostbar die Datenschnippsel von „Dumpfbacken-Peter-Meine-Daten-sind-doch-völlig-unwichtig!“ sind.
Wie man aus ach-so-belangloser Kommunikation die Identität ermittelt, zeigte schon der AOL-Skandal 2006.
@ThilomenMorta : Was da so freundlich angeboten wird, ist das gesetzlich (DSGVO) erzwungene Minimum.