Explore developer resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's platform.
Moin. Was ich schrob: OpenAIs crawler berücksichtigt jetzt offenbar eine robots.txt. Gefühlt find ich es eine gute Idee, das Dingen von meinen Posts fernzuhalten. Meinungen?
Über die Föderation können sie auch einfach einen eigenen Server aufsetzen und sich da alles komplett runterladen, so dass die Sperre vermutlich eh keine Sinn ergibt.
Also zusammengefasst: Einfach nur Mist schreiben, so dass OpenAI deine Posts eh nicht haben will! Ü
Über die Föderation können sie auch einfach einen eigenen Server aufsetzen und sich da alles komplett runterladen, so dass die Sperre vermutlich eh keine Sinn ergibt.
Was du im Internet veröffentlichst, ist genau das: veröffentlicht. Auch wenn es von OpenAI nicht indiziert wird, landet es bei diversen anderen Crawler, die einen Pfiff auf die robots.txt geben.
Daher bessere Lösung: Poste nichts online, was du nicht auch der Dame an der Supermarktkasse erzählen würdest.
Ja, ich habe aus meinem Reddit-Account ne Menge Zeug gelöscht und nachher erfahren, dass das leider bereits Teil des in GPT-3 verwendeten Datenmodells geworden war, zu dem Zeitpunkt.
Gegenfrage: Brächte es nicht eher eine Begründung, warum eine kommerzielle Firma die von den Usern hier geposteten Inhalte kostenlos für ihre eigenen Produkte abgreifen dürfen sollte ohne auch nur vorher mal zu fragen?