Opt-Out-Anleitung für Websites

Viele KI-Anbieter nutzen öffentlich zugängliche Website-Inhalte für das Training ihrer Sprach- oder Bildmodelle – häufig ohne Zustimmung der Urheber:innen.

Die Bundesarchitektenkammer (BAK) erklärt in einer gut nachvollziehbaren Anleitung, wie sich Website-Betreiber:innen durch gezielte Einträge in der Datei robots.txt gegen das Crawlen durch KI-Bots wehren können.

KI-Crawler durch Einträge in der robots.txt „aussperren“

In der sog. robots.txt-Datei auf dem Webserver lässt sich etwa festlegen, dass bestimmte KI-Crawler wie „GPTBot“ oder „ClaudeBot“ keine Inhalte der Website auslesen dürfen. Diese Datei bearbeitet man üblicherweise mit einem Texteditor und lädt sie danach per FTP-Programm wieder auf den Server.

Wichtig dabei: Die Liste der aktiven KI-Bots muss regelmäßig geprüft und ergänzt werden. Ein genereller Schutz besteht nicht – nur wer (technisch) aktiv wird, kann das ungewollte Auslesen einschränken.

Künstliche Intelligenz ist eine großartige Sache – wer jedoch verhindern will, dass KI-Anbieter ihre Modelle mit Material von der eigenen Büro-Website trainieren, muss aktiv werden (Symbolbild; Grafik: Internet für Architekten)

Künstliche Intelligenz ist eine großartige Sache – wer jedoch verhindern will, dass KI-Anbieter ihre Modelle mit Material von der eigenen Büro-Website trainieren, muss aktiv werden (Symbolbild; Grafik: Internet für Architekten)

Der Link zum Beitrag „Opt-Out-Anleitung für Websites“ wurde am 02. Juli 2025 der Presseschau auf „Internet für Architekten“ hinzugefügt.

Zum Original-Beitrag »

Übrigens: Wenn Sie Link-Tipps für unsere Presseschau haben, schreiben Sie uns.

👉🏻 Interessantes Thema? Teilen Sie es mit anderen:

QR-Code scannen

Scannen Sie den QR-Code, um diese Seite auf Ihrem Smartphone zu öffnen.

QR Code scannen, um diese Seite auf dem Smartphone zu öffnen!

← Zurück zur Presseschau

Weitere Einträge in unserer Presseschau

Zur Startseite »

Was ist Ihre Meinung dazu?

Pflichtfelder sind mit * markiert.