Nutzung von ChatGPT datenschutzfreundlich?

Hallo,

ich überlege ChatGPT zu nutzen, leider ist dies nicht ohne registrierung möglich. Wie seht ihr die Nutzung der KI aus datenschutzrechtlicher Perspektive? Kann ich das nutzen, um mir Arbeit abnehmen zu lassen oder ist es ein rießiger Datensammler?

1 „Gefällt mir“

Beides. Und: Ohne ‚Datensammeln‘ wird die KI nicht schlauer.

4 „Gefällt mir“

Ich meine, man muss eine Handynummer bei Registrierung angeben. Zudem heißt es in der Datenschutzerklärung:

Analytics : We may use a variety of online analytics products that use cookies to help us analyze how users use the Site and Services and enhance your experience when you use the Site and Services.

Our Site currently does not respond to “Do Not Track” (“DNT”) signals and operates as described in this Privacy Policy whether or not a DNT signal is received.

So ganz Datenschutzfreundlich scheint es nicht zu sein.

1 „Gefällt mir“

Gibt es evtl. eine Seite, Programm oder APP die es als Fork oder so ähnlich benutzt?

2 „Gefällt mir“
  • ChatGPT läuft derzeit gratis und im Versuchsstadium.
  • Außerdem wird es von Microsoft betrieben.

Zwei Aspekte, die eine Datenschutzfreundlichkeit eigentlich ausschließen …

Obendrein: es ist ein brutaler Jobkiller!
Jeder, der es nutzt oder ausprobiert, unterstützt die KI bei der Entwicklung und Microsoft auf dem Weg, es (gegen die Menschen!) zu vermarkten.

Also: Pfui! Finger weg!

Schließlich möchte ich noch an die Stimmen gegen KI erinnern: Einschlägiges Suchergebnis (DDG).

6 „Gefällt mir“

Das halte ich für sehr weit her geholt.

Aber neue Technik schnürt immer Angst.

Ich sehe in der KI mehr Fortschritt für die Gesellschaft als Gefährdung dieser.

Das wieder Unternehmen die Technik vermarkten ist natürlich absehbar.

Ohne verifizierte Mobile-Nr. kann man ChatGPT nicht testen/nutzen
Ich wollte einen Fake-Account registrieren, habe dann aber abgebrochen

Perplexity.ai kann man ohne Anmeldung nutzen. Mal so als Alternative vorgeschlagen.

Das hört sich so an, als sei Datenschutz und Künstliche Intelligenz nicht vereinbar.
Da „Datenschutz“ ja sehr gern als Sündenbock für tatsächlich alles Denkbare von interessierten Kreisen genutzt wird, nur mal der Hinweis: KI kann gut OHNE personenbezogene Daten lernen.
KI ist nicht dumm :wink: und kann sehr gut eine natürliche Person von einer fiktiven Person abspalten, die Daten also anonymisieren.
Man muss es nur wollen.

KI ohne Datenschutz ist der Horror.

Nicht, weil KI so intelligent und mächtig wäre, sondern weil die Menschen glauben wollen. Und sie wollen auch DAS glauben, dass die KI Recht hat, geradezu göttlich ist, objektiv und superintelligent.

Diese pseudo-religiösen Effekte kann man längst beobachten: Es gibt Leute, die argumentieren „bei Google steht das aber anders!“ :rofl: und viele meinen bspw die Suchergebnisse von Google seien unzensiert und objektiv.

1 „Gefällt mir“

9 Beiträge wurden in ein neues Thema verschoben: Künstliche Intelligenz und ihre (möglichen) Gefahren

Um die Eingangsfrage zu beantworten:

Für diejenigen, die ChatGPT ohne Anmeldung (auch ohne Telefonnummer) ausprobieren möchten, habe ich diese Webseite entdeckt:

https://seoschmiede.at/aitools/chatgpt/

Die Einschränkungen empfinde ich als minimal (max 600 Tokens pro Anfrage, dafür scheinbar aber unendlich viele, GPT 3.5). Damit kann man schon sehr gut arbeiten.
(benötigt nur die Domains seoschmiede.at, openai.com und api.openai.com)

1 „Gefällt mir“

You made my day … Ein Klassiker.

Firmen, Behörden, etc. haben bei ChatGPT noch andere Herausforderungen: Data Loss Prevention, wie man gut am Beispiel von Samsung sehen kann. Zitat (techradar):

Samsung meeting notes and new source code are now in the wild after being leaked in ChatGPT.

Das Problem gibt es natürlich auch bei anderen beliebten Diensten wie z.B. google translate, aber grundsätzlich wird es nicht einfacher. Vielleicht kehren wir eines Tages wieder zur Schreibmaschine zurück so wie im Film Super Intelligence gezeigt (zugegeben ein Liebesfilm, aber mit einigen was Cybersecurity betrifft interessanten Themen), wenn nicht … na ja … will dem Film nicht vorgreifen …

1 „Gefällt mir“

Ein Beitrag wurde in ein existierendes Thema verschoben: Künstliche Intelligenz und ihre (möglichen) Gefahren

Die Frage braucht man sich eigentlich gar nicht stellen.

ChatGPT ist ganz bestimmt nicht datenschutzfreundlich.

Das ist allerdings nicht meine Sichtweise oder Sorge, denn irgendjemand müsste der KI diese Macht ja aktiv geben.
Ich halte die Menschen mit ihrem Wunsch nach Orientierung und Halt („Glauben wollen“) für viel gefährlicher als eine menschengemachte KI.
Die Hersteller von KI werden mit irrem Werbeaufwand - wie üblich - ihre KIs verkaufen und dabei Sprüche einhämmern, die viele Menschen dazu bringen wird, was HEUTE, wie angedeutet, schon der Fall ist: Eine gefährliche Technikgläubigkeit.
Diese muss man als solche enttarnen und brandmarken, will man weiter eine rationale Diskussion.
Schon jetzt findet de facto eine Beweisumkehr „im Kampf mit KI“ statt: Die Bundespräsidentengattin sollte laut Google nachweisen, dass sie NICHT im Rotlichtmillieu tätig war, bis dahin, so Google, gelte, dass sie sich gefallen lassen müsse, dass bei jeder Eingabe ihres Namens, eine Suchwortergänzung stattfindet, die auf Prostitution hinweist.
Google: Unsere Suche ist objektiv.
Bedeutete: Da steckt Wahrheit dahinter.

In dubio gegen den Bürger, in dubio pro KI.

Wir werden wohl bald bereits mit FakeNews von KI generiert zu kämpfen haben.
Da heißt es dann: „ChatGPT hat aber gesagt, dass xyz doof ist!“ oder „… ins Gefängnis muss!“.
Und wir müssen dann beweisen, dass das nicht so ist … weil, weil, weil … hyper, hype, gehypte KI, die „alles weiß“ und „noch nie falsch lag“ eben dann die vom Hersteller so umfänglich gehypte „Unfehlbarkeit“ und „Autorität“ beansprucht.
Wie heute schon für viele: Google.
Und da das us-amerikanisches Produkt sein wird, werden wir aus „Dankbarkeit“ gleich ein teures Abo abschließen und den Preis nicht bemerken wie die Indianer auf der Manhattan-Insel vor 200 Jahren werden wir unsere Souveränität für Glaskugeln, ein Fass Rum, rostige Flinten und ein wenig Munition verkaufen. Also: Unsere persönlichen Daten.

Aber ich liebe KI, finde KI geil.
Das ist technisch faszinierend.
Nur überhöhen sollte man es nicht.
Das ist gefährlich.

1 „Gefällt mir“

Das schon. Aber es kann in seiner Nutzung sich irgendwann gegen den Datenschutz richten. Beispielsweise, indem es irgendwann nur noch solche Suchmaschinen gibt oder es gar nicht mehr anders möglich ist, Firmen zu konaktieren außer darüber. Dann kann es erforderlich sein, dafür möglichst natürliche Sprache zu verwenden. Wenn man erstmal soweit ist mit der KI, kann man das dann auch nutzen, die natürliche Sprache zu analysieren (die Art der Sprachverwendung ist sehr individuell) und damit dann die Anfrage einer Person zuzuordnen.
Auch wenn KI einen Nutzen hat, ist hier das Risiko von Dual-Use hoch. Das heißt, es ist eine Technologie, die einerseits positiv, andererseits negativ ist. Gefördert wird sie unter der Betonung, wie positiv und wichtig das wohl ist, Kritiker werden als technikfeindlich diffamiert. Dies ist eine gesellschaftlich-politische Betrachtung. Für den Fragesteller mag sie (noch) irrelevant für den Datenschutz sein. Die Verwendung fördert aber die Nutzung und Verbreitung dieser Technologie und irgendwann IST es dann für jeden ein Datenschutzproblem.

Ja, das ist ein weiteres Problem.

Ja, in allen Feldern, wo man sich kritisch zu vermehrter Techniknutzung äußert. Ich habe kein Problem an sich mit vermehrter Techniknutzung, aber damit, was diese Gesellschaft daraus macht. Und die Gesellschaft IST jetzt eben so und (ich beobachte das schon sehr lange) es ist eine Illusion zu glauben, dass sich da was ändern wird (eher wird die Gesellschaft durch solche und andere Gimmicks und ihre Technologiegläubigkeit und Machbarkeitswahn davon abgelenkt, sich mit den eigentlichen Problemen auseinanderzusetzen).

Du meinst, das ist die verbreitete Denke, das ist nicht Deine Denke?

1 „Gefällt mir“

Ich stehe fest auf dem Boden von Demokratie, Rechtsstaat, Sozialstaat.
Mich nervt schon eine Berichterstattung wie jüngst gelesen:
„Täter hat die Tat gestanden!“
Täter ist man nicht per Geständnis sondern per Urteil.
Personen gestehen durchaus Taten, die sie nicht begangen haben, bspw weil sie eine nahestehende Person schützen wollen uvm.
Schade, wenn der Lynchmob dass dann erst im Nachhinein erfährt …

Warst du auch hier mit dabei?

Nachdem Deutschland schon die Digitalisierung komplett verschlafen hat, sollte man bei KI vielleicht auf kritischen Umgang hinarbeiten statt dieses sinnlose verteufeln.

:laughing:

Grundsätzlich bin ich ja bei Dir: ansich immer für differenzierten, ggf. kritischen Umgang.
Aber bei manchen Dingen ist es so kritisch, daß jedes Warten schon zu gefährlich ist.
Ein ähnliches Beispiel war zum Beispiel das Klonen oder das Manhattan Project.

Übrigens hatten die Lehrer ja tatsächlich recht: die Menschen von heute können im Vergleich zu denen damals so gut wie nicht mehr rechnen, weil sie sich alles vom elektronischen Rechner abnehmen lassen.

Gleicher Effekt ist mit Navigationssystemen für jedermann: die Menschen verlieren völlig den geografischen Überblick.

Ich war damals nicht dabei und wäre es auch nicht gewesen, wenn die Umstände gepasst hätten. Aber gesehen habe ich das Problem bereits in meiner späteren Schulzeit.

1 „Gefällt mir“

@ Bit: die Menschen werden immer dümmer,die Maschinen immer schlauer…

der Mensch hat etwas geschaffen,was das Potential hat,die Stellung des Menschen als allem überlegene Spezies abzuschaffen.Die Geister,die ich rief…

1 „Gefällt mir“