Swisscom Campus Newsletter
Erhalte neue Inhalte vom Swisscom Campus direkt in deine Mailbox, dank dem Swisscom Campus Newsletter.
Ein Bild von einer im Meer surfenden, jubelnden Kuh in fotorealistischer Umsetzung, das war lange Zeit ein Ding der Unmöglichkeit. Heute gehören solche Sujets zum Alltag. Und längst geht es nicht mehr nur ums Generieren: Die neuesten Generation der Bild-KIs lässt sich im Dialog bedienen. Du lädst einfach ein Bild hoch und beschreibst, was sich ändern soll und die KI setzt präzise um. Auf dieser Seite erklären wir, wie Bild-KIs funktionieren, stellen die bekanntesten Modelle vor, zeigen nützliche Anwendungsfälle für Alltag, Schule und Arbeit und verraten dir, woran du KI-generierte Bilder erkennst.
Direkt zum Thema
Seite teilen
Wie funktionieren Bild-KIs?
Um Bilder zu generieren, stehen einer KI heute im Wesentlichen zwei verschiedene Methoden zur Verfügung: Diffusionsmodelle und autoregressive Modelle. Beide können beeindruckende Bilder erzeugen, gehen dabei aber grundlegend anders vor:
Diffusionsmodelle starten mit einem zufälligen Bildrauschen (eine graue, körnige Fläche) und verfeinern dieses in vielen kleinen Schritten, bis das Bild entsteht, das du im Prompt beschrieben hast. Dieses iterative Vorgehen ermöglicht eine hohe Detailtreue und eine grosse stilistische Vielfalt. Bekannte Beispiele für Diffusionsmodelle sind Midjourney oder Stable Diffusion. Solche Modelle sind besonders stark, wenn es um künstlerisch-stilistische Resultate geht. Sie tun sich aber eher schwer damit, komplexe Textbeschreibungen genau umzusetzen oder bestehende Bildern zu bearbeiten.
Die neuere Generation der Bild-KIs verfolgen einen anderen Ansatz: Autoregressive Modelle sind Teil grösserer multimodaler Sprachmodelle. (Das sind Modelle, die gleichzeitig Text, Bild und teils auch Audio verstehen und verarbeiten können.) Sie verstehen Prompts damit deutlich besser und können Bildanfragen kontextbewusster beantworten. Besonders bei der Bildbearbeitung zeigt sich zu den Diffusionsmodellen ein grosser qualitativer Unterschied: Die KI ändert nur das, was du in natürlicher Sprache im Prompt forderst. Bekannte Beispiele für autoregressive Modelle sind GPT Image (OpenAI) und Nano Banana Pro (Google).
Bis etwa 2021 waren Generative Adversarial Networks (GANs) die führende Technologie. Diese wurden inzwischen von Diffusions- und autoregressiven Modellen in Qualität und Vielfalt klar überholt und spielen in gängigen Tools heute keine Rolle mehr.
Wenn Bilder mit Hilfe von KI erstellt werden, ist die rechtliche Situation spannend: Derzeit sind sie in der Schweiz grundsätzlich nicht urheberrechtlich geschützt, was ihre Verwendung flexibel macht. Dennoch müssen Marken- und Persönlichkeitsrechte berücksichtigt werden. Die rasanten Entwicklungen in der Technologie könnten zukünftig Änderungen im Urheberrecht mit sich bringen. Bleib informiert, um auf dem neuesten Stand zu bleiben.
Wie bei der Text-KI gibt es auch bei den KI-Bildgeneratoren immer mehr Modelle. An der qualitativen Spitze stehen aktuell GPT-4o und Midjourney.
GPT Image ist das Bildgenerierungs- und Bearbeitungsmodell von OpenAI. Als Nachfolger von DALL·E löst GPT Image auch GPT-4o ab. Das Modell kann Prompts besonders gut umsetzen, weil Text und Bild in demselben neuronalen Netz entstehen. So können bestimmte Elemente oder Bereiche eines Bildes gezielt verändert werden.
Ab 13 Jahren empfohlen
Web, App, API für Entwickler*innen, Microsoft Copilot
GPT Image ausprobieren: https://chat.openai.com/ (öffnet ein neues Fenster)
Midjourney gilt als «Gold Standard» der KI-Bildgenerierung und ist bekannt für stilistische Tiefe und künstlerische Qualität. Dadurch unterscheidet sich dieses spezialisierte Bildmodell von Allroundern wie etwa GPT Image. Version 7 (2025) bringt eine persönliche Stil-Kalibrierung, Spracheingabe und erstmals Videogenerierung. Bestehende Bilder lassen sich in Clips von bis zu 21 Sekunden animieren.
Ab 13 Jahren
Web, Discord
Canva ist als Design-Plattform beliebt und bietet mit Dream Lab eine leistungsfähige KI-Bildgenerierung. Der Fokus liegt auf einfacher Bedienung und der direkten Integration in bestehende Projekte. Seit 2025 ist zudem Googles Nano Banana Pro integriert, was die Bildbearbeitung und Textdarstellung deutlich verbessert.
Ab 13 Jahren empfohlen
Web, App
Canva AI ausprobieren: https://www.canva.com/ (öffnet ein neues Fenster)
Adobe Firefly hat sich von einem KI-Bildgenerator zu einem eigenständigen Creative AI Studio entwickelt. Dieses vereint Bild-, Video- und Audiogenerierung sowie -bearbeitung auf einer Plattform. Der ethische Ansatz bleibt ein Kernmerkmal, denn alle Firefly-eigenen Modelle wurden ausschliesslich mit lizenzierten Inhalten, Adobe Stock Bildern und gemeinfreien Werken trainiert und sind damit kommerziell unbedenklich nutzbar.
Ab 13 Jahren
Adobe Creative Cloud, Web, App
Firefly ausprobieren: https://firefly.adobe.com/ (öffnet ein neues Fenster)
Wer mehr Kontrolle über seine Bildgenerierung möchte, wird in der Open-Source-Welt fündig. Anders als bei kommerziellen Bild-KIs laufen diese Modelle lokal auf dem eigenen Computer, ohne Abos und ohne Cloud. Dafür mit maximaler Anpassungsfähigkeit. Super geeignet für Entwickler*innen, kreative Tüftler*innen sowie datenschutzsensible Organisationen. Der Einstieg erfordert allerdings technisches Können und eine leistungsstarke Hardware.
Unsere Auswahl an Open-Source-Modellen im Vergleich:
https://huggingface.co/black-forest-labs/FLUX.1-schnell(öffnet ein neues Fenster)
Lizenz: Apache 2.0
Besonderheiten: schnell, qualitativ stark und auch kommerziell frei nutzbar
https://huggingface.co/stabilityai/stable-diffusion-3.5-large (öffnet ein neues Fenster)
Lizenz: Community-Lizenz
Besonderheiten: grosse Community, breite Vielfalt an Stilen verfügbar
Lizenz: Open Weights (Tencent Hunyuan Community License)
Besonderheiten: autoregressives Modell, stark bei Hochauflösung, auch auf weniger leistungsstarker Hardware nutzbar
Open-Source-Modelle sind lokale Installationen, die über Webplattformen wie Hugging Face(öffnet ein neues Fenster) beziehbar sind.
Nano Banana Pro (offiziell: Gemini 3 Pro Image) ist das fortschrittlichste Bildgenerierungsmodell von Google. Es wurde im November 2025 veröffentlicht und ist direkt in die Google Produktwelt eingebettet. Das Modell zeichnet sich durch fotorealistische Qualität und eine präzise Textdarstellung in mehreren Sprachen aus.
Ab 13 Jahren (ab 18 Jahren in EU und UK)
Gemini App, Google Workspace, NotebookLM, Google Suche, API
Nano Banana Pro ausprobieren: https://gemini.google.com/(öffnet ein neues Fenster)
Wie unterscheiden sich die bekanntesten Bildgeneratoren in der Qualität, wenn sie denselben Prompt ausführen?
«cute comic style, wide angle, plush elephant shaking hand of a mouse, sunset, warm colors –ar 16:9»
Die neue Generation der KI-Bildgeneratoren funktioniert anders als ihre Vorgänger: Statt nur einen Text-Prompt entgegenzunehmen, können multimodale Modelle wie GPT Image oder Nano Banana Pro gleichzeitig Text, Bild und teils auch Audio verstehen und verarbeiten. Die Bedienung wird für dich damit noch natürlicher und intuitiver.
Multimodale KI geht über Text und Bilder hinaus.
Das bedeutet für deine Prompts:
Du schreibst einen Text-Prompt (z.B. «Ein roter Apfel auf einem Tisch» und lässt die KI ein Bild generieren.
Du kannst auch ein Bild von einem roten Apfel auf einem Tisch hochladen und die KI anweisen: «Mach den Apfel blau und füge eine Banane hinzu» oder «Erstelle eine ähnliche Szene, aber im Winter».
Mit multimodalen Modellen arbeitest du im Dialog mit der KI. Wie mit einer persönlichen Designerin, der du über die Schulter schaust und in Echtzeit Feedback gibst. Die KI erinnert sich an euren Chatverlauf und an frühere Bildversionen und kann das Bild iterativ mit dir weiterentwickeln. Einzelne Elemente wie Beleuchtung, Hintergrund, Farben oder Gesichtsausdrücke können damit verändert werden, während der Rest des Bildes unverändert bleibt. Nutze diese Dialogfunktion, um Alternativen zu erkunden, konkretes Feedback zu geben («Das gefällt mir, jenes aber nicht») oder dich Schritt für Schritt an dein Wunschbild heranzutasten.
Ein kleiner Wermutstropfen: Die multimodalen Modelle stecken zurzeit noch in den Kinderschuhen und sind in der Ausarbeitung manchmal noch nicht ganz ausgereift. Es kann darum passieren, dass die KI Teile des ursprünglichen Bildes vergisst oder nicht alle Bilddetails sich im Gespräch steuern lassen.
Da multimodale Modelle Bilder analysieren und beschreiben können, werden sie auch zur Erstellung von Alt-Texten eingesetzt. Dabei formulieren sie Alt-Texte für Sehbehinderte, die beim digitalen Einsatz von Bildern für eine bessere Barrierefreiheit hinterlegt werden können.
Ein guter Prompt gibt Vorgaben zum visuellen Stil, zu konkreten Inhalten sowie zum Seitenverhältnis (je nach Modell). Worauf du dich sonst noch achten kannst, damit die KI jene Bilder generiert, die du dir vorstellst, verraten wir dir hier.
Ein paar Grundsätze vorab: Achte beim Prompten darauf, keine Füllwörter zu verwenden. Die richtige Prompt-Länge ist zentral, denn längere Prompts helfen der KI bei der Umsetzung deiner Idee. Bei zu ausführlichen Vorgaben kann sich die KI jedoch auch verlieren und Elemente visualisieren, die dir vielleicht gar nicht so wichtig sind.
Recherchiere auch Fachbegriffe aus der visuellen Kunst(öffnet ein neues Fenster), um der KI ganz konkrete Stilvorgaben machen zu können.
Jede generative KI arbeitet leicht anders. Aber bei allen lohnt es sich, auf diese grundlegenden Dinge zu achten:
Nicht alle Bildgeneratoren verstehen Deutsch. Informiere dich, welche Sprache der gewünschte Bildgenerator spricht und prompte in dieser Sprache. (Du kannst dir auch von einer Übersetzungs-KI wie DeepL(öffnet ein neues Fenster) helfen lassen.)
In welchem Stil soll das Bild umgesetzt werden? Wünschst du einen stilisierten Kunststil (wie die Bilder von Van Gogh) oder ein fotorealistisches Motiv? Gib der KI einen genauen Auftrag, den sie ausführen kann.
Was genau soll auf dem Bild zu sehen sein? Was befindet sich im Vordergrund, was im Hintergrund? Nenne alle nötigen Elemente.
In welchem Farbschema soll das Bild generiert werden? Willst du ein Schwarz-Weiss-Bild oder eine farbige Inszenierung? Woher kommt das Licht ins Bild? Welche Stimmung herrscht im Bild?
Bei einigen Tools (wie in Midjourney) kannst du das Seitenverhältnis selbst bestimmen, zum Beispiel: Portraits im Verhältnis 3:4.
Statt einen Stil oder eine Stimmung in Worte zu fassen, kannst du der KI einfach ein Bild zeigen. Lade ein Referenzfoto hoch und bitte die KI, deinen Prompt in diesem Stil umzusetzen. Oder das Referenzbild direkt weiterzuentwickeln und zu verändern.
Die KI-Bildgenerierung kann mehr als nur den künstlerischen Selbstausdruck fördern. Sie kann dir konkret im Familienalltag sowie im Schul- und Arbeitskontext behilflich sein. Die Möglichkeiten sind dabei vielfältiger, als du vielleicht denkst.
Weihnachtskarte mit KI erstellen.
Brauchst du eine neue Gutenachtgeschichte für dein Kind? Mit multimodalen Modellen entwickelst du spielend einfach dein eigenes Bilderbuch. Die KI hilft dir beim Ideen-Ping-Pong und formuliert deine Story so aus, wie du das möchtest. Sie kann deine raschen Skizzen in hochwertige Zeichnungen umwandeln, um dein Buch zu bebildern. Und sie kann dir hilfreiche Tipps hinsichtlich Druck und Organisation mitgeben.
Wünschst du dir frischen Wind im Wohnzimmer – vielleicht ein neues Sofa? Eine andersfarbige Wand? Wenn du dir das nicht selbst vorstellen willst oder kannst, lass es die KI für dich erledigen. Fotografie einfach dein Wohnzimmer und probiere mit der KI verschiedene Möbel, Farben oder Einrichtungsstile aus – bevor du dafür Geld ausgibst.
«Zeige mir das Wohnzimmer auf dem hochgeladenen Bild mit einem himmelblauen Sofa und hochweissen Wänden.»
Ob zum Geburtstag, für Weihnachten oder zur Hochzeit – mit KI kannst du personalisierte Karten generieren lassen, statt Standardkarten ab der Stange zu verschenken.
Hinweis: Denk bitte an den Schutz der persönlichen Daten und überlege dir gut, ob und welche Fotos du allenfalls von dir oder anderen (hole am besten vorher deren Einverständnis ein) in KIs hochlädst.
Weihnachtskarte erstellen (Video oben)
Mit den autoregressiven Modellen wird die Bildbearbeitung mit Hilfe von KI noch viel einfacher. Du lädst einfach ein Bild hoch (Achtung: Datenschutz) und weist die KI an, zum Beispiel den Hintergrund zu entfernen, auszutauschen oder eine bestimmte Person auf einem Foto zu entfernen. Du kannst auch die Qualität von Fotos verändern und vergilbte Bilder wieder neuwertig wirken lassen.
«Restauriere mein altes Familienfoto.»
Wie erklärst du deinen Schüler*innen, wie das Leben im Mittelalter tatsächlich aussah? Textbücher können manchmal trocken sein und anschauliche Bilder gibt es nicht überall. Lasse die KI historische Szenen rekonstruieren und diskutiere sie mit deinen Schüler*innen im Unterricht:
«Wie sah diese Stadt damals vs. heute aus?»
Mikrobiologische Abläufe geschehen im Kleinen und sind von blossem Auge in der Regel nicht erfassbar. Eine KI kann aber ganz nah an eine Pflanzenzelle heranzoomen und unsichtbare Dinge sichtbar machen. Sie kann aber auch ganz im Gegenteil etwas unvorstellbar Grosses greifbar machen, etwa wie die Evolution des Menschen in Zeitraffer aussehen würde.
«Wandle meine hochgeladene Skizze einer Zelle in eine realistische Illustration um.»
Besonders für visuelle Lerntypen können Lernbilder anstelle von schlichten Wortkarten beim Sprachenlernen ein Vorteil sein. Die KI untermalt Vokabeln bildlich und erstellt passende Szenen oder Eselsbrücken, die so leichter im Gedächtnis bleiben.
«A happy dog plays in the park.» / «Une famille française au petit-déjeuner.»
Natürlich kann die KI auch bei der Vermittlung von Medienkompetenz helfen, indem du beispielsweise KI-Bilder generierst, und sie gemeinsam mit fotografierten Bildern den Kindern zur Sortierung gibst.
«Wie lassen sich echte Fotos von KI-Bildern unterscheiden?» / «Welche typischen KI-Fehler macht die KI?» / «Wie kennzeichnet man KI-generierte Inhalte richtig?» / «Was bedeutet das für den Journalismus und die Verbreitung von Nachrichten?»
Abstrakte Konzepte sind schwer vorstellbar. Da kann eine KI Abhilfe schaffen und Ideen rasch skizzieren. Sie kann aber auch bei Moodboards helfen und diese entweder bebildern oder direkt selber aufbauen. Manchmal hilft die KI, kreative Blockaden zu überwinden, indem sie das weisse Blatt mit einer ersten Idee füllt. So gewinnst du mehr Zeit für deine finale Ausarbeitung der besten Idee.
«Erstelle ein Moodboard für ein Verpackungsdesign für Bio-Kaffee im skandinavischen Stil.»
Ständig neuen Content fürs Unternehmen zu generieren, ist aufwendig. Lasse dir von der KI helfen. Ein multimodales Modell unterstützt dich gleichermassen bei der Konzeption und hilft mit ersten Visualisierungen. Manche Unternehmen in der Modebranche setzen bereits vollständig auf KI-generierte Inhalte in grossflächigen Kampagnen.
«Erstelle eine zweite Bildvariante, um ein A/B-Testing durchzuführen. Verwende bei der zweiten Bildvariante knalligere Farben und dynamische Perspektiven.»
Deine komplizierten Daten sollen anschaulicher werden? Bildmodelle wie Nano Banana Pro von Google generieren vollständige Infografiken aus einem Datensatz oder einer Beschreibung. Microsoft Copilot greift (mit den entsprechenden Berechtigungen) direkt auf deine Dateiablagen zu und sucht sich die nötigen Informationen selbst zusammen.
«Visualisiere unseren Transformationsprozess, indem du die beiden [hier] abgelegten Dokumente analysierst und miteinander in Verbindung bringst.»
Wenn du als KMU oder Selbständige*r wenig Ressourcen zur Verfügung hast, kann eine KI dich auch tiptop bei der Erstellung von Produktfotos unterstützen: Fotografiere deine Produkte vor einem weissen Hintergrund und lasse die KI sie anschliessend in professionell wirkende Lifestyle-Shots in verschiedenen Settings umwandeln.
«Erstelle mir Produktfotos für den Online-Shop aus 4 unterschiedlichen Perspektiven.»
Wenn du KI-generierte Inhalte für kommerzielle Zwecke nutzen willst, informiere dich vorab über die Nutzungsrechte und Datenschutzbedingungen der Modelle. Kennzeichne KI-generierte Inhalte aus ethischen und rechtlichen Gründen transparent als solche. Beachte natürlich auch allfällige Corporate Design-Richtlinien. Und betrachte KI als Ergänzung, aber nicht als Ersatz für menschliche Fähigkeiten und Kreativität.
Dass du KI-generierte Bilder erkennen kannst, wird zu einer wichtigen Medienkompetenz. Hier zeigen wir dir, worauf du achten und was du tun kannst, wenn du dir mal unsicher bist. Mit etwas Übung entwickelst du ein gutes Gespür. Bleibe dennoch immer aufmerksam, denn die Technologien werden täglich besser.
Was bei der Erkennung von Video-Deepfakes gilt, hilft meist auch, um KI-generierte Bilder zu entlarven. Einfach ist es deswegen aber noch lange nicht. Selbst Expert*innen liegen manchmal daneben. Wenn du dir also mal unsicher bist, ist das völlig normal. Wichtig ist, dass du kritisch bleibst und bei Unsicherheit nachforschst.
Hände (falsche Fingerzahl, unnatürliche Formen), Zähne, Ohren, Haare an Übergängen, Texte im Bild (kryptisch oder unleserlich), Hintergrunddetails (Regale, Schilder, Muster), Symmetriefehler im Gesicht, starrer/unpersönlicher Blick, zu perfekte Haut oder Beleuchtung.
Schmuck und Accessoires, die physikalisch keinen Sinn ergeben. Brillenreflexionen, die nicht zur Umgebung passen. Schatten oder Lichtquellen, die sich widersprechen. Menschen, die leicht schweben oder falsch im Raum platziert wirken.
In den Bildmetadaten kann der KI-Ursprung vermerkt sein. Diese kannst du hier prüfen: Content Credentials(öffnet ein neues Fenster)
Achtung: Metadaten können beim Upload auf Social Media oder per Screenshot verloren gehen, darum immer die Originaldatei prüfen.
SynthID (Google): unsichtbares Wasserzeichen, das in der Gemini-App prüfbar ist. Die SynthID funktioniert aber nur für Google-KI-Bilder. Weitere Tools existieren, sind aber noch fehleranfällig.
Grundsätzlich gilt: Verlasse dich nicht auf ein Merkmal, sondern prüfe lieber mehrere Aspekte. Bleibe besonders bei perfekten Bildern skeptisch.
Deepfakes gibt es neben Videos natürlich auch in der Form von Bildern. Etwa wenn Bildelemente mittels generativer KI ausgetauscht werden, sodass sich die Botschaft verändert, das Bild aber immer noch täuschend echt aussieht. Bei Bildern ist zusätzlich das Urheberrecht ein kontrovers diskutiertes Thema.
Als Lehrperson stehst du vor der Frage: Soll ich Bild-KI zur Vorbereitung oder im Unterricht nutzen – und wenn ja, wie? Wie so oft gilt auch hier: Klar, nutze die Chancen der neuen Technologien, aber sei dir auch der Grenzen und Risiken bewusst. Damit kannst du deine eigenen Entscheidungen treffen und die Medienkompetenz in deiner Klasse bewusst mitgestalten.
Wie erklärst du einem Kind im Zyklus I, wie ein Solarpanel funktioniert? Oder wie eine Pflanze Fotosynthese betreibt? Besonders multimodale Modelle sind gut darin, Funktionsweise und komplexe Zusammenhänge visuell abzubilden und auf eine bestimmte Altersstufe heruntergebrochen zu erklären. Während GPT-4o für die Erklärung des Solarpanels etwa die anschauliche Metapher einer Fabrik verwenden kann, ergänzt der integrierte Bildgenerator die Ausführungen mit einer passenden Illustration.
Mit dieser Unterstützung hast du bei der Vorbereitung des Unterrichts rasch passendes Bildmaterial zur Hand, ohne viel Lizenzgebühren (oder Nerven) bezahlen zu müssen.
Ein Bild sagt mehr als tausend Worte – besonders, wenn die Worte noch nicht zum eigenen Wortschatz gehören. Wie etwa, wenn im Unterricht Kinder betreut werden, die nicht fliessend Deutsch sprechen. Oder auch, wenn die zentralen Kernbegriffe im Zusammenhang mit dem Unterrichtsmaterial sehr abstrakt sind. Dann können Bilder, Grafiken und visuelle Abläufe helfen, das Thema für alle leicht verständlich zu machen.
Wenn du historische oder naturwissenschaftliche Darstellungen mit Hilfe von Bild-KI generierst und diese in den Unterricht integrierst, lege einerseits offen, dass du KI verwendet hast. Gib andererseits zu bedenken, dass diese keine historisch oder wissenschaftlich korrekten Darstellungen sind, sondern vielmehr visuelle Annäherungen ans Thema, die es so aber nicht zwingend gegeben hat. Möglicherweise lässt sich direkt im Unterricht diskutieren, warum und wo die generierten Bilder vom echtem historischen Bildmaterial abweicht.
Sei dir zudem bewusst, dass KI-Darstellungen Stereotypen verstärken können (da eine generative KI immer verbreitete und gelernte Muster wiedergibt), wenn du beispielsweise kulturelle Gruppen darstellen lässt.
Natürlich kann eine Bild-KI sehr hilfreich sein, wenn es darum geht, komplexe Konzepte visuell zu veranschaulichen. Doch damit übernimmt die KI auch einen Teil der eigenen Denkleistung der Schüler*innen – bei der Bild-KI insbesondere den der kreativen Vorstellungskraft.
Es ist, wie wenn du einen Film schaust, bevor du das Buch dazu gelesen hast: Wenn du anschliessend das Buch trotzdem noch lesen möchtest, hast du im Kopf automatisch die Darstellenden aus dem Film, statt dir dein eigenes Bild von ihnen zu machen. Sei dir also der Macht der Bilder bewusst und dass du damit die Vorstellung der Schüler*innen beeinflusst.
Im Kurs lernen Lehrpersonen KI-Bildgeneratoren kennen und erfahren, was im Hintergrund geschieht, sobald die Prompts abgeschickt werden. Wir thematisieren, wo und wie sich die Bildgeneratoren für den Unterricht eignen und wie Realität, Manipulation und Verantwortung rund um die Bildgenerierung im Unterricht thematisiert werden können. Das 90-minütige Webinar ist in Zusammenarbeit mit LerNetz entstanden.
Weitere Informationen und Inhalte zum Thema «Bild-KIs und Bildgeneratoren» haben wir hier zusammengetragen.
Marcel ist Trainer bei Swisscom. Er steht Ihnen bei allen Fragen rund um das Thema KI zur Verfügung.
Trainer bei Swisscom