KI-Bilder-Software „Stable Diffusion“: Wie Künstliche Intelligenz die Architektur­kommunikation verändern könnte

Angetrieben von Künstlicher Intelligenz erzeugen „Text-zu-Bild-Generatoren“ auf Basis von beliebigen Texteingaben in Sekunden einmalige Bilder. Mit dem Non-Profit-Projekt „Stable Diffusion“ steht erstmalig ein KI-System zum Erzeugen von Bildern kostenlos, bequem und für die Allgemeinheit zur Verfügung. Das könnte auch die Architekturkommunikation verändern.

Ein "Modulhaus im Wald", erzeugt per KI-Software von Stable Diffusion auf beta.dreamstudio.ai

Ein „Modulhaus im Wald“, erzeugt per KI-Software Stable Diffusion (Lizenz) auf beta.dreamstudio.ai. Bei jeder neuen Anfrage wird ein komplett individuelles Bild erzeugt.

Stable Diffusion ist nicht der erste und nicht der einzige „Text zu Bild-Generator“. Projekte wie DALL·E 2, MidJourney oder Imagen von Google Brain bieten ähnliche Funktionen. Dennoch nimmt das Tool des Startups Stability AI wegen seiner leichten Zugänglichkeit für alle (u. a. via Browser, siehe unten) eine Sonderstellung in der Software-Landschaft ein.

Und: „Durch den gemeinnützigen Ansatz der Herausgeber steht das Stable-Diffusion-Modell samt damit erzeugtem Output der Allgemeinheit frei zur Verfügung“ wie Heise.de in einem der ersten ausführlichen Beiträge über die KI-Software schreibt.

Hinter dem Projekt steht ein Team aus Forscher:innen und Ingenieur:innen aus verschiedenen Non-Profit-Organisationen und Universitäten, u. a. von der Universität Heidelberg.

KI-Bilder-Software in der Architekturkommunikation nutzen

Eine KI-Software, die beliebig Bilder „auf Knopfdruck“ produziert? Das klingt auch für Architektinnen und Architekten nach einer hochinteressanten Anwendung, nicht zuletzt für die Architekturkommunikation. Denn natürlich funktioniert Architekturkommunikation visuell schon bisher sehr gut – sofern man passende Bilder zur Verfügung hat. Das ist aber nicht immer der Fall. Es kommt durchaus vor, dass man Dinge kommunizieren möchte, aber das passende Bildmaterial nicht vorhanden ist:

  • Für die Kundenpräsentation fehlen noch gute Illustrationen zu einem ganz bestimmten Thema?
  • Sie haben einen Blog-Beitrag geschrieben, für den Sie ein passendes Bild suchen, aber nichts brauchbares finden?
  • Sie brauchen Bildmaterial für einen Social Media-Post, wollen aber nicht schon wieder dasselbe Stock-Foto verwenden?
  • Das Ganze soll auch noch kostenlos sein?

Kein Problem: Mit der KI-Bilder-Software „Stable Diffusion“ lassen sich komplett individuelle Darstellungen zu beliebigen Themen, Orten, Gegenständen, Materialien usw. erzeugen. Das „Text-zu-Bild-System“ ermöglicht das kostenlose Generieren von zufälligen Bildern, Zeichnungen, Gemälden, fotorealistischen Darstellungen usw. Auf Wunsch auch in bestimmten Stilen. Die Möglichkeiten sind endlos.

Erste Testbilder, erzeugt mit der KI-Software Stable Diffusion auf beta.dreamstudio.ai – Eine "Crowded french train station in pointilistic style"

Erste Testbilder, die ich im iPhone-Browser mit Stable Diffusion (Lizenz) auf beta.dreamstudio.ai erzeugt habe – Eine „Crowded french train station in pointilistic style“

Ist die Nutzung von „Stable Diffusion“ kostenlos?

Das „Modell“ (also vereinfacht gesagt die Software „Stable Diffusion“) wurde unter der Creative ML OpenRAIL-M-Lizenz veröffentlicht. Diese sehr großzügige Lizenz erlaubt die eine kommerzielle und nicht-kommerzielle Nutzung der erzeugten Bilder. Wie Stability AI anlässlich des „Public Release“ auf seiner Website schreibt, „konzentriert sich [die Lizenz] auf die ethische und legale Nutzung des Modells“.

Dennoch gibt es wohl rechtliche Grenzbereiche: Zum Beispiel dann, wenn über den Umweg der KI-Software illegale Inhalte erzeugt werden. Oder wenn der Stil von bestimmten (zeitgenössischen) Künstler:innen nachgeahmt wird etc. Über solche Themen wird schon jetzt in Fachkreisen heiß diskutiert, siehe z. B. hier und hier.

Auch wenn ich kein Jurist bin und hier keinerlei Rechtsberatung erbringen kann, möchte ich noch erwähnen, das bei der Veröffentlichung von Bildern aus Stable Diffusion höchstwahrscheinlich ein Hinweis auf die Quelle (nämlich Stable Diffusion und gegebenenfalls, wie bei meinen Bildern, beta.dreamstudio.ai) gesetzt werden sollte.

Ich werde das jedenfalls zunächst so machen, und habe in den Bildunterschriften z. B. in diesem Beitrag ausserdem noch einen Link zur Release-Meldung von Stability AI sowie zur oben genannten Lizenz gesetzt. Vermutlich ist das nicht wirklich nötig, aber erstmal kann das sicher nicht schaden 😊

Stable Diffusion auf dem eigenen Computer lokal nutzen

Als Anwendung kann Stable Diffusion auf handelsüblichen Computern laufen. Aus beliebigen Texteingaben in englischer Sprache (z. B. „a modern beach house in brittany, water color“) erzeugt das Tool in Sekunden mit Hilfe von Künstlicher Intelligenz und auf Basis von Millionen hinterlegter Bilddaten ein zufälliges Bild.

Lokale Installation erfordert eine leistungsstarke Grafikkarte

Das ist eine Besonderheit der Software: Die aufwändigen Rechenprozesse finden auf der lokalen Festplatte statt. Jede:r Nutzer:in mit technischem Grundwissen und einer Nvidia-Grafikkarte mit mehr als 4 Gigabyte VRAM kann „Stable Diffusion“ lokal auf dem eigenen Rechner nutzen (Details dazu finden Sie im schon oben erwähnten Artikel auf heise.de).

Mehr Arbeitsspeicher der Grafikkarte ist – wie beim Rendern von klassischen Architekturvisualisierungen – natürlich noch besser: Damit lassen sich sich noch höhere Auflösungen der per KI generierten Bilder erzielen.

Kann man Stable Diffusion auch im Browser nutzen?

Zum Glück: Ja! Wer nicht über eine entsprechende Ausrüstung verfügt, sich nicht mit kryptischen Installationsanweisungen herumschlagen oder – wie ich – das Programm einfach mal testen möchte: Es gibt eine einfache Lösung! Über die Plattform „DreamStudio“ kann „Stable Diffusion“ auch direkt im Browser genutzt werden. Das funktioniert sogar im Smartphone, wie die Bilder auf dieser Seite zeigen.

Nach einer (kostenlosen) Anmeldung bei DreamStudio erhalten die neuen Benutzer:innen 200 Credits. Damit kann sofot los-generiert werden! Je nach gewünschtem Detaillierungsgrad bzw. Bildauflösung „kostet“ ein Bild ein oder mehrere Credits.

Spaßbilder und Fantasie-Motive ohne Ende: Hier meine "freundliche Ente auf Reisen", erzeugt mit Stable Diffusion auf beta.dreamstudio.ai.

Spaßbilder und Fantasie-Motive ohne Ende: Hier meine „freundliche Ente auf Reisen“, erzeugt mit Stable Diffusion (Lizenz) auf beta.dreamstudio.ai.

Da Rechenleistung in der Cloud die Betreiber:innen der Plattform Geld kostet, ist das kostenlose Kontingent nicht endlos: Sind die ersten Credits verbraucht, können via Stripe per Kreditkarte für 10 britische Pfund (etwas mehr als 10 EUR) weitere 1.000 Credits gekauft werden.

Ein paar Nachteile der Browser-basierten Variante gibt es (zumindest im Moment noch):

Die Standardauflösung bei der oben beschriebenen Methode im Browser ist 512 x 512 Pixel. Höhere Auflösungen kosten wie gesagt mehr „Credits“. Wer hier mehr Leistung benötigt, sollte ggf. doch die aufwändigere lokale Installation erwägen (siehe oben).

Ebenfalls gut zu wissen: Bestimmte Motiv-Wünsche, z. B. Darstellungen von menschlichen Gesichtern, lieferten bei meinen Tests mit der browserbasierten Bilderstellung noch keine befriedigenden Ergebnisse. Vermutlich ist das bei den rechenintensiveren Verfahren (siehe oben) anders. Darauf lassen zumindest die Beispielbilder schliessen, die von Stability AI auf deren Website gezeigt werden.

« Zurück zum Webinar-Kalender

Wichtige Hinweise: Die Vollständigkeit und Richtigkeit der hier aufgeführten Daten können wir leider nicht garantieren. Bitte überprüfen Sie alle Angaben immer auf den Seiten der jeweiligen Anbieter. Und: „Internet für Architekten“ ist NICHT der Veranstalter der hier genannten Webinare. Wir weisen hier lediglich auf diese Veranstaltungen hin.

Zur Startseite »

Was ist Ihre Meinung dazu?

Pflichtfelder sind mit * markiert.