Google Gemini Diffusion: Die unbemerkte Revolution in der Textgenerierung
Xpert Pre-Release
Sprachauswahl 📢
Veröffentlicht am: 30. Mai 2025 / Update vom: 30. Mai 2025 – Verfasser: Konrad Wolfenstein
Die nächste Stufe der KI: Was Google Gemini Diffusion einzigartig macht
Google Gemini Diffusion: Die unbemerkte Revolution in der Textgenerierung
Die Welt der Künstlichen Intelligenz ist in ständiger Bewegung. Fast täglich werden neue Durchbrüche und Modelle vorgestellt, die unsere Vorstellungskraft herausfordern. Doch inmitten des Hypes um beeindruckende Sprachmodelle wie GPT-4o, Claude 3 oder Googles eigenes Gemini 2.5 Pro gab es kürzlich eine Ankündigung, die erstaunlich wenig Beachtung fand, obwohl sie das Potenzial hat, die Art und Weise, wie wir über KI-Textgenerierung denken, grundlegend zu verändern: Google Gemini Diffusion. Dieses innovative Modell wendet eine Methode auf die Textgenerierung an, die wir bisher hauptsächlich von der Bilderschaffung kennen – die Diffusion. Und genau das macht es so faszinierend und potenziell revolutionär.
Der Ursprung der Diffusion: Von digitalem Rauschen zu visueller Brillanz
Um Gemini Diffusion wirklich zu verstehen, müssen wir zunächst einen Blick auf die Technologie werfen, von der es seinen Namen und seine Funktionsweise ableitet: die Diffusionsmodelle in der Bildgenerierung. Modelle wie Stable Diffusion, Midjourney oder Flux haben in den letzten Jahren die Kreativbranche und die breite Öffentlichkeit gleichermaßen verblüfft. Sie können aus einfachen Textbeschreibungen (sogenannten “Prompts”) atemberaubende und detailreiche Bilder erzeugen.
Das “Diffusion” in ihrem Namen bezieht sich dabei auf einen hochkomplexen, aber metaphorisch leicht fassbaren Prozess. Man kann es sich wie einen Bildhauer vorstellen, der aus einem rohen, formlosen Block – in diesem Fall einem digitalen Rauschen – nach und nach eine detaillierte Skulptur meißelt. Der Prozess beginnt mit einem völlig zufälligen Rauschen, einer Art “Visueller Nebel” oder “digitalem Schnee”, der keinerlei erkennbare Struktur enthält. Ausgehend von einem sogenannten “Seed” (einer Zufallszahl, die die Ausgangsrauschverteilung bestimmt) wird dieses Rauschen erzeugt.
In unzähligen winzigen Schritten, sogenannten “Iterationen”, beginnt das KI-Modell dann, dieses Rauschen zu “entrauschen”. Es identifiziert Muster, die sich aus dem Rauschen herauskristallisieren könnten, und formt diese schrittweise in immer klarere Strukturen um. Zuerst entstehen nur unscharfe Konturen und grobe Formen, die sich kaum von der Hintergrundverrauschung abheben. Doch mit jedem weiteren Schritt werden die Details präziser, die Farben klarer und die Linien schärfer, bis schließlich ein kohärentes und oft erstaunlich realistisches Bild entsteht, das der ursprünglichen Textbeschreibung exakt entspricht. Dieser iterative Entrauschungsprozess ist das Herzstück der Diffusionsmodelle und der Schlüssel zu ihrer Fähigkeit, aus dem Nichts komplexe visuelle Welten zu erschaffen.
Gemini Diffusion: Die Revolution der Textgenerierung durch Entrauschen
Die eigentliche Sensation von Gemini Diffusion liegt darin, dass es genau dieses Prinzip der Diffusion – das Entrauschen von Rauschen zur Generierung von Inhalten – nicht auf Bilder, sondern auf Text anwendet. Statt mit Pixeln oder Farbwerten arbeitet Gemini Diffusion mit Token. Token sind die grundlegenden Bausteine von Sprachmodellen: Sie können einzelne Wörter, Satzteile, Programmiercode-Fragmente oder sogar Satzzeichen sein.
Der Prozess beginnt auch hier mit einem chaotischen “Wust” aus zufällig verteilten Token, einem “Text-Rauschen”, das völlig unverständlich ist. Es ist wie ein Radio, das nur statisches Rauschen wiedergibt, oder ein unleserlicher Buchstabensalat. Schritt für Schritt beginnt Gemini Diffusion dann, dieses Token-Wirrwarr zu “entrauschen”. Basierend auf den Mustern und Beziehungen, die das Modell während seines Trainings auf gigantischen Textdatenmengen erlernt hat, erkennt es statistische Zusammenhänge und formt die zufälligen Token zu lesbaren Wörtern, Sätzen und schließlich zu kohärentem Text oder funktionierendem Programmiercode.
Dieser Ansatz unterscheidet sich fundamental von der Funktionsweise der meisten etablierten Sprachmodelle, die wir heute kennen – Modelle wie GPT-4, die Gemini-Reihe (mit Ausnahme von Gemini Diffusion selbst), LLaMA oder DeepSeek. Diese arbeiten autoregressiv. Das bedeutet, sie generieren Text strikt nacheinander, Wort für Wort, Token für Token. Jedes neue Wort wird auf der Grundlage der bereits generierten Wörter als die statistisch wahrscheinlichste Fortsetzung ausgewählt. Man kann sich das wie das Schreiben eines Satzes von links nach rechts vorstellen, wobei man sich immer auf das zuletzt geschriebene Wort bezieht.
Die Limitationen autoregressiver Modelle: Ein Blick zurück
Die autoregressive Methode hat zweifellos beeindruckende Ergebnisse geliefert und den aktuellen KI-Hype maßgeblich vorangetrieben. Doch sie bringt auch inhärente Nachteile mit sich:
1. Rechenintensität und Langsamkeit
Da jedes Token sequenziell berechnet werden muss und die Modelle immer größer werden, sind autoregressive Generierungen oft sehr rechenintensiv und können, insbesondere bei langen Texten, relativ langsam sein. Der gesamte Kontext muss bei jedem Schritt neu bewertet werden.
2. Fehlerhaftigkeit und Unflexibilität
Einmal generierte Textteile können von einem autoregressiven Modell nicht rückwirkend korrigiert werden. Stellt das Modell im Laufe der Generierung fest, dass ein früherer Teil des Textes ungünstig oder falsch war, kann es diesen nicht mehr direkt ändern. Es ist gewissermaßen “blind” für die Zukunft seines eigenen Textes. Dies führt oft zu logischen Inkonsistenzen oder stilistischen Brüchen, insbesondere bei längeren und komplexeren Texten. Einige neuere Modelle versuchen, dieses Problem durch eine sogenannte “Reasoning”-Methode zu adressieren, wie sie beispielsweise in DeepSeek R1 oder GPT-4o zu finden ist. Dabei “denkt” das Modell in mehreren Etappen über einen Prompt nach und sammelt Schlussfolgerungen, bevor es die finale Antwort generiert. Dies erfordert jedoch noch mehr Rechenleistung und Zeit, da das Modell intern wiederholt Inhalte erzeugt und verwirft.
3. Herausforderungen bei der Bearbeitung
Wenn ein autoregressives Modell einen bereits erzeugten Text bearbeiten soll, muss es oft den gesamten Text von Grund auf neu generieren, selbst wenn nur eine kleine Änderung vorgenommen werden soll. Dies ist ineffizient und zeitraubend.
Die Stärken von Gemini Diffusion: Geschwindigkeit, Flexibilität und Präzision
Die Diffusionsmethode, wie sie Gemini Diffusion nutzt, ist in vielerlei Hinsicht eine Antwort auf diese Herausforderungen. Sie ist holistisch und iterativ, was bedeutet, dass das Modell bei jedem einzelnen Schritt den gesamten Inhalt seiner Ausgabe gleichzeitig entrauscht und optimiert.
1. Beeindruckende Geschwindigkeit
Dies ist einer der auffälligsten Vorteile. Während GPT-4o etwa 50 bis 100 Token pro Sekunde generiert, Claude 3 Sonnet rund 77 und Gemini 2.0 Flash bis zu 245 Token, erreicht Gemini Diffusion Geschwindigkeiten von 500 bis 1.000 Token pro Sekunde. Berichten von Nutzern auf Plattformen wie X (ehemals Twitter) und Reddit zufolge, kann das Modell unter optimalen Bedingungen sogar bis zu 3.000 Token pro Sekunde generieren. Zum Vergleich: 1.000 Token entsprechen etwa 650 bis 750 Wörtern, was bedeutet, dass Gemini Diffusion in einer einzigen Sekunde einen halben bis dreiviertel einer DIN A4-Seite Text erzeugen kann. Diese Geschwindigkeit ist besonders beeindruckend bei der Generierung von Programmiercode, wo das Modell seine Effizienz voll ausspielen kann.
2. Holistische und flexible Korrektur
Da das Modell den gesamten Text gleichzeitig entrauscht, reagiert es auf jeden Token, der sich irgendwo in seinem Ausgabefenster aus dem latenten Rauschen bildet. Ein sich formendes Wort am Ende des Textes kann beeinflussen, was im nächsten Schritt am Anfang oder in der Mitte konkretisiert wird. Entdeckt das Modell während des Generierungsprozesses einen Fehler, eine Ungenauigkeit oder eine Unschärfe, können diese korrigiert und optimiert werden, unabhängig davon, wo sie im Text auftreten. Dies ist ein entscheidender Vorteil gegenüber autoregressiven Modellen, die einen “blinden Fleck” für zukünftige Fehler haben.
3. Gezielte Bearbeitung (Text-Inpainting)
Ähnlich wie bei Bild-Diffusionsmodellen das sogenannte “In-Painting” funktioniert (man markiert einen Bereich im Bild und lässt ihn neu generieren, um Objekte hinzuzufügen oder zu entfernen), kann Gemini Diffusion auch Text sehr gezielt bearbeiten. Es muss nicht den gesamten Text von Anfang bis Ende neu aufbauen. Stattdessen kann es gewünschte Abschnitte und die durch die Änderungen betroffenen Bereiche einfach “verrauschen” und dann wieder gezielt “entrauschen”. Das ermöglicht es, ausgewählte Passagen oder Absätze in ihrer Tonalität oder ihrem Stil anzupassen, zu übersetzen oder zu optimieren, ohne dass dies den restlichen Text beeinträchtigt. Bei anderen Sprachmodellen ist dies oft noch eine Herausforderung oder dauert unverhältnismäßig lange. Dies eröffnet völlig neue Möglichkeiten für die effiziente Textbearbeitung und -optimierung.
4. Natürlichere Sprachausgabe
Obwohl die Generierung von klassischem Text etwas langsamer sein kann als bei Code, berichten einige Nutzer, dass Gemini Diffusion Texte erstellt, die natürlicher und menschlicher klingen als jene anderer großer Sprachmodelle. Dies könnte auf die holistische Arbeitsweise zurückzuführen sein, die es dem Modell ermöglicht, globale Kohärenz und stilistische Konsistenz besser zu wahren.
🎯🎯🎯 Profitieren Sie von der umfangreichen, fünffachen Expertise von Xpert.Digital in einem umfassenden Servicepaket | R&D, XR, PR & SEM
AI & XR-3D-Rendering Machine: Fünffachen Expertise von Xpert.Digital in einem umfassenden Servicepaket, R&D XR, PR & SEM - Bild: Xpert.Digital
Xpert.Digital verfügt über tiefgehendes Wissen in verschiedenen Branchen. Dies erlaubt es uns, maßgeschneiderte Strategien zu entwickeln, die exakt auf die Anforderungen und Herausforderungen Ihres spezifischen Marktsegments zugeschnitten sind. Indem wir kontinuierlich Markttrends analysieren und Branchenentwicklungen verfolgen, können wir vorausschauend agieren und innovative Lösungen anbieten. Durch die Kombination aus Erfahrung und Wissen generieren wir einen Mehrwert und verschaffen unseren Kunden einen entscheidenden Wettbewerbsvorteil.
Mehr dazu hier:
Von Gemini bis Dream 7B: Zukunft der KI-Texttechnologie
Herausforderungen und offene Fragen der Text-Diffusion
Trotz seines vielversprechenden Potenzials ist die Diffusionsmethode für Textgenerierung noch jung und nicht ohne ihre eigenen Herausforderungen:
1. Abhängigkeit von der Anzahl der Schritte
Die Qualität der Ausgabe hängt maßgeblich von der Anzahl der Entrauschungsschritte ab, die das Modell durchführt. Bei Bildmodellen können Nutzer diese Schritte oft manuell einstellen. Bei Sprachmodellen auf Diffusionsbasis ist dies zwar auch möglich, idealerweise sollten die KI-Systeme diese jedoch dynamisch an die Komplexität des Prompts und die gewünschte Textlänge anpassen.
- Zu wenige Schritte: Führen zu qualitativ minderwertigen, unfertigen oder „verrauschten“ Ergebnissen. Der Text wirkt unzusammenhängend oder fragmentiert.
- Zu viele Schritte: Können dazu führen, dass ein Text konfus, widersprüchlich oder gar in sich zusammenbrechend wird. Das Modell “zerdenkt” den Inhalt praktisch. Es kann zu einem sogenannten Denoising Collapse kommen, bei dem der generierte Inhalt wieder in einen rauschartigen Zustand zurückfällt, weil das Modell überoptimiert und dabei die Kohärenz verliert. Dies ist vergleichbar mit einem Bild, das durch zu aggressive Filterung plötzlich abstrakt und unkenntlich wird.
2. Äquivalente von Halluzinationen in Text:
Die größten und fortschrittlichsten KI-Bildgeneratoren wie Flux oder Minimax Image-01 haben immer noch Probleme mit Fehlern, die nicht aus Modellschwächen, sondern aus der Diffusionstechnik resultieren können. Dazu gehören physische Anomalien wie zu viele oder zu wenige Finger, das willkürliche Einfügen von Elementen oder verzerrte Körper- und Architekturdarstellungen. Die Frage ist, in welchem Ausmaß Text-Diffusionsmodelle unter äquivalenten “Halluzinationen” leiden könnten:
- Logische Inkonsistenzen: Der Text beginnt plausibel, aber spätere Abschnitte widersprechen früheren Aussagen.
- Stilistische und tonale Brüche: Der Stil oder der Ton des Textes ändert sich mitten im Satz oder Absatz plötzlich und unbegründet.
- Chaotische Textstruktur: Absätze oder Sätze sind unzusammenhängend angeordnet, springen zwischen Themen oder wiederholen sich unnötigerweise.
- Völlig verfehltes Thema: Obwohl der Text grammatisch korrekt ist, verfehlt er das ursprüngliche Thema oder den Prompt komplett.
- Faktische Ungenauigkeiten: Obwohl das Entrauschen das primäre Ziel ist, könnte das Modell statistische Muster so interpretieren, dass sie falsche Informationen in den Text einflechten.
Diese Phänomene sind Gegenstand intensiver Forschung, da sie das Vertrauen in die generierten Inhalte beeinträchtigen könnten.
Der Kontext der Präsentation: Ein Sturm neuer KI-Ankündigungen
Dass Gemini Diffusion vergleichsweise wenig Beachtung fand, mag paradox erscheinen, erklärt sich aber aus dem Kontext seiner Präsentation. Google stellte es auf seiner jährlichen Entwicklerkonferenz I/O vor, die traditionell ein Feuerwerk an Neuigkeiten ist. Im Mai 2024 war die Fülle der Google-Ankündigungen in der Tat überwältigend. Neben Gemini Diffusion präsentierte der Tech-Konzern eine Reihe weiterer hochkarätiger Projekte und Werkzeuge:
Gemini 2.5 Pro
Die damals intelligenteste Version von Googles eigenem Gemini-Modell, die bereits durch ihre Multimodalität und Leistungsfähigkeit beeindruckt.
Astra
Googles Vision eines KI-Assistenten, der nicht nur Sprachbefehle versteht, sondern auch visuelle Informationen in Echtzeit verarbeiten und interagieren kann – ein Schritt in Richtung echter “KI-Agenten”.
Veo (Version 3)
Die dritte Iteration der Text-zu-Video-KI, die nun auch in der Lage ist, Sprache und Klang zu erzeugen, was die immersiven Fähigkeiten generativer KI-Videos erheblich erweitert.
Smart Glasses Aura
Ein Prototyp intelligenter Brillen, die digitale Informationen nahtlos in die reale Welt einblenden sollen.
3D-Videocall-System Beam
Ein innovatives System für immersive Videoanrufe, das die Grenzen zwischen physischer und digitaler Präsenz verwischen soll.
Angesichts dieser Flut an bahnbrechenden Innovationen war es für ein “Experiment”, so vielversprechend es auch sein mag, schwierig, die nötige Aufmerksamkeit zu erhalten. Es ging gewissermaßen im Trubel der größeren, unmittelbar anwendbaren Ankündigungen unter, obwohl es das Potenzial hat, die Paradigmen der viel beachteten Sprachmodelle über den Haufen zu werfen.
Eine aufkeimende Forschungsrichtung: Die Vorgänger von Gemini Diffusion
Google Diffusion mag das bisher größte Experiment im Bereich der Text-Diffusion sein, aber es ist bei weitem nicht das erste. Die Idee, Diffusionsmodelle für Text zu nutzen, ist eine relativ neue, aber intensiv beforschte Richtung.
Bereits im Jahr 2023 veröffentlichte ein Team der Soochow University in China eine bahnbrechende Studie. Darin vertraten sie die These, dass Diffusionsmodelle die bisherigen Sprachmodellarchitekturen, insbesondere in Bezug auf die Robustheit und Fehlerkorrektur, übertreffen könnten. Im selben Jahr folgten daraufhin erste rudimentäre Modelle, die das Konzept der Text-Diffusion in die Praxis umsetzten: Diffusion-LM und Minimal Text Diffusion. Diese Pioniere zeigten, dass die Entrauschung von Token grundsätzlich auch für die Textgenerierung funktioniert, wenn auch noch in einem sehr frühen Stadium.
Im Februar dieses Jahres (2024) folgte ein weiteres interessantes Modell: Mercury Coder von Inception Labs. Dieses Modell konzentrierte sich primär auf die Generierung von Programmiercode und bewies, dass Diffusionsmodelle in diesem speziellen Anwendungsbereich eine bemerkenswerte Geschwindigkeit erreichen können, die herkömmliche Sprachmodelle übertraf.
Kurz vor der Google I/O, im April 2024, stellten die University of Hong Kong und das zu Huawei gehörende Noah’s Ark Lab das Diffusion Large Language Model Dream 7B vor. Bis zur Präsentation von Gemini Diffusion war Dream 7B das größte verfügbare Diffusionsmodell für Text. Seine Fähigkeiten und die zugrunde liegende Architektur erregten die Aufmerksamkeit führender KI-Forscher. Andrej Karpathy, ein ehemaliger OpenAI-Forscher, der für seine profunden Einblicke in neuronale Netze bekannt ist, äußerte sich zu Dream 7B. Er hob hervor, dass dieses Modell das Potenzial habe, eine gänzlich andere “Psychologie” oder einzigartige Stärken und Schwächen im Vergleich zu autoregressiven Modellen zu zeigen.
All diese Projekte ebneten den Weg für Gemini Diffusion und zeigen, dass die Forschungsgemeinschaft bereits seit einiger Zeit die Grenzen der autoregressiven Modelle erkannt und nach alternativen Ansätzen gesucht hat. Ein KI-Forscher, der sich nicht namentlich äußern wollte, bestätigte nach der Vorstellung von Gemini Diffusion, dass dieses Modell nun “die Relevanz des Ansatzes” beweise und “in diese Richtung weitergeforscht werden sollte”. Er betonte insbesondere das Potenzial für Sprachmodelle auf mobilen Geräten und weniger leistungsstarken Servern, wo Diffusions-LLMs “ein totaler Game Changer” sein könnten. Der Grund dafür ist die inhärente Parallelisierbarkeit des Entrauschungsprozesses, der sich besser auf bestimmte Hardware-Architekturen verteilen lässt als die sequentielle Natur autoregressiver Modelle.
Die revolutionären Implikationen und der Blick in die Zukunft
Die Einführung von Gemini Diffusion, auch wenn sie im Schatten anderer Giganten stand, ist ein bedeutsamer Schritt in der Entwicklung von Künstlicher Intelligenz. Sie repräsentiert nicht nur eine technologische Neuerung, sondern signalisiert eine potenzielle Paradigmenverschiebung in der Architektur von Sprachmodellen.
Was könnte das für die Zukunft bedeuten?
1. Effizientere KI-Anwendungen
Die enorme Geschwindigkeit und die Fähigkeit zur präzisen Bearbeitung könnten generative KI-Anwendungen in vielen Bereichen revolutionieren. Denken Sie an Echtzeit-Texterzeugung in Videoanrufen, schnelle Code-Generierung in Entwicklungsumgebungen oder sofortige Zusammenfassungen komplexer Dokumente.
2. KI auf mobilen Geräten
Der bereits erwähnte Vorteil für leistungsschwächere Hardware ist entscheidend. Wenn Diffusionsmodelle effizient auf Smartphones oder Edge-Geräten laufen können, würde das die Zugänglichkeit und den Nutzen von KI dramatisch erhöhen, da weniger auf Cloud-Server angewiesen wäre.
3. Kreative Textbearbeitung
Autoren, Journalisten oder Marketingexperten könnten von der In-Painting-Funktion profitieren, um gezielt Stil, Ton oder Inhalt in spezifischen Textabschnitten anzupassen, ohne den Fluss des gesamten Dokuments zu zerstören. Dies ermöglicht eine bisher unerreichte Präzision und Kontrolle bei der Überarbeitung.
4. Robuste und konsistente Inhalte
Wenn die Herausforderungen der “Halluzinationen” und des “Denoising Collapse” gemeistert werden, könnten Diffusionsmodelle Texte generieren, die logisch konsistenter und stilistisch kohärenter sind als die der aktuellen Modelle. Dies wäre ein großer Schritt in Richtung zuverlässigerer KI-Generierung.
5. Neuartige KI-Fähigkeiten
Die holistische Arbeitsweise könnte es Diffusionsmodellen ermöglichen, andere Arten von Aufgaben besser zu lösen oder neue Arten von Fehlern zu vermeiden. Vielleicht sind sie prädestiniert für Aufgaben, bei denen globale Konsistenz über sequenzielle Perfektion gestellt wird, wie etwa bei der Erstellung komplexer Erzählstrukturen oder dem Schreiben von Drehbüchern.
Gemini Diffusion: Der stille Umbruch in der KI-Textgenerierung
Die Tatsache, dass ein so potenziell wegweisendes Modell wie Gemini Diffusion – das man sich übrigens bereits über eine Warteliste selbst ansehen kann – in der breiten Öffentlichkeit kaum Beachtung findet, ist ein Spiegelbild der rasanten Entwicklung im Bereich der KI. Die Geschwindigkeit, mit der neue Modelle und Paradigmen auftauchen, ist schwindelerregend. Doch gerade in solchen „unter dem Radar“ fliegenden Experimenten versteckt sich oft das wahre Potenzial für die nächste große Revolution.
Es bleibt spannend zu beobachten, wie sich Diffusionsmodelle im Textbereich weiterentwickeln und ob sie tatsächlich die etablierten autoregressiven Architekturen herausfordern oder sogar ersetzen können. Was Google mit Gemini Diffusion angestoßen hat, ist mehr als nur ein Experiment; es ist ein Wegweiser in eine mögliche Zukunft der Textgenerierung, die schneller, flexibler und vielleicht sogar intuitiver ist. Es ist ein Aufruf an die Forschung, diese vielversprechende Richtung mit Nachdruck zu verfolgen, denn die Welt der KI hat vielleicht gerade erst einen ihrer stillsten, aber bedeutendsten Schritte gemacht.
Wir sind für Sie da - Beratung - Planung - Umsetzung - Projektmanagement
☑️ KMU Support in der Strategie, Beratung, Planung und Umsetzung
☑️ Erstellung oder Neuausrichtung der KI-Strategie
☑️ Pioneer Business Development
Gerne stehe ich Ihnen als persönlicher Berater zur Verfügung.
Sie können mit mir Kontakt aufnehmen, indem Sie unten das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an.
Ich freue mich auf unser gemeinsames Projekt.
Xpert.Digital - Konrad Wolfenstein
Xpert.Digital ist ein Hub für die Industrie mit den Schwerpunkten, Digitalisierung, Maschinenbau, Logistik/Intralogistik und Photovoltaik.
Mit unserer 360° Business Development Lösung unterstützen wir namhafte Unternehmen vom New Business bis After Sales.
Market Intelligence, Smarketing, Marketing Automation, Content Development, PR, Mail Campaigns, Personalized Social Media und Lead Nurturing sind ein Teil unserer digitalen Werkzeuge.
Mehr finden Sie unter: www.xpert.digital - www.xpert.solar - www.xpert.plus