Ist gutes SEO gleichzeitig gutes GEO? SEO im Ohr - Folge 405

Show notes

Auf der Google Search Central Live hat Google erklärt, wie man Webseiten für die KI-Suche optimieren kann. Dabei wurde auch die Aussage getroffen: "Good SEO is good SEO". Das greift allerdings ein wenig zu kurz.

Liz Reid von Google sieht AI Slop nicht als neues Problem. Spam habe es schon immer gegeben. Wichtig seien die guten Inhalte im Web.

Es gibt schon wieder eine neue Abkürzung: AEO steht für Agentic Engine Optimization. Was hat es damit auf sich?

Für Sundar Pichai von Google könnte das Jahr 2027 ein Wendepunkt in der Suche werden.

Show transcript

00:00:00: Hallo und herzlich willkommen zu einer neuen Ausgabe von SEO im Ohr, eurem SEO-Podcast hier auf SEO Südwest.

00:00:22: Wie immer mit den aktuellsten SEO News der Woche!

00:00:26: Ich würde sagen diese Woche stand unter dem Motto GUT SEO IS GOOD GEO.

00:00:33: Also zumindest mal stand das auf einer Folie die gezeigt wurde auf der Google Search Central Live in Kanada Und diese Folie hat auch für einiges an Diskussionen gesorgt und wir besprechen heute, was es damit auf sich hat.

00:00:49: Und ob das wirklich ausreicht, gute SEO zu betreiben um auch für Geo gewappnet zu sein.

00:00:56: Außerdem weitere Meldungen in diese Ausgabe.

00:00:59: Liz Reid von Google sieht AI-Slop nicht als neues Problem.

00:01:04: dann sprechen wir über eine neue Abkürzung nämlich AEO.

00:01:08: Das steht für Agentic Engine Optimization Und Sunder Pitschei, CEO von Google hat im Jahr ist es für die Suche zu einem Wendepunkt erklärt und auch darauf gehen wir ein was es damit auf sich hat.

00:01:25: Ja also das alles in dieser Ausgabe von SEO im Ohr.

00:01:28: schön dass ihr dabei seid und lasst uns gleich mal anfangen mit dem Eingangs erwähnten Zitat gut seo is good geo.

00:01:37: Das wurde ja wie gesagt auf der Search Central Live in Kanada von Google so auf einer Folie präsentiert.

00:01:44: Und es ging dabei eben auch um die KI-Suche von Google mit den AI Overviews und dem AI Mode, und das würde besprochen, wie man für die KI Suche optimieren kann.

00:01:56: Eine Empfehlung von Google in diesem Zusammenhang lautet, an die Empfehlungen für traditionelle SEO halten.

00:02:11: Und es sei wichtig, eben die allgemeinen Seogrundlagen zu befolgen.

00:02:17: Dementsprechend gilt oder gelte dieser Satz gut seo ist gut geo und er googl hatte sondern ein bisschen konkretisiert und hat neben den Befolgen der Seogrundlagen auch das Nutzen von strukturierten Daten empfohlen, eine gute User Experience ebenfalls wichtig.

00:02:35: Und einzigartige authentische Inhalte die keine austauschbare Massenware sind sogenannte Non-Commodity-Inhalte.

00:02:44: Das sind eigentlich alles keine grundlegenden neuen Empfehlungen.

00:02:50: Die kennen wir ja auch schon aus der SEO.

00:02:52: Aber die Frage ist jetzt, was versteht Google unter Non-Commodity Inhalten?

00:02:59: Und da sind einige Merkmale zu nennen, die wichtig sind.

00:03:03: Zunächst einmal sind diese Inhalte einzigartig weil sie zum Beispiel Standpunkte oder Informationen bieten, die es anderswo noch nicht gibt und die auch nicht einfach kopiert werden können.

00:03:13: Sie sind spezifisch, weil sie konkrete Fälle oder Situationen behandeln anstatt lediglich allgemeine Regeln und generische Informationen aufzulisten.

00:03:21: Und sie sind authentisch, indem sie echtes Wissen oder Erfahrung aus erster Hand zeigen!

00:03:26: Ja...und dann hat Google auch noch ein paar Mythen behandelt und zwar geht es einmal darum dass man für Menschen schreiben soll nicht für die KI.

00:03:40: Ein Mythos der in diesem Zusammenhang steht, der lautet das Inhalt speziell für die KI in kleine Stücke zerlegt werden müssten.

00:03:48: Das sogenannte Chunking.

00:03:49: Das ist aber laut Google gar nicht nötig.

00:03:51: Texte sollten für ein gutes menschliches Leser-Erlebnis organisiert und geschrieben werden und Überschriften wie H.Eins oder H.Zwei können dazu dienen dem menschlichen Leser zu helfen und müssen dann auch nicht eigens für dieKI präzisiert.

00:04:07: Ebenso unnötig sei es laut Google sich auf konversationelle Keywords zu konzentrieren oder zu versuchen, jedes mögliche Synonym abzudecken.

00:04:16: Googlesystemen zum Sprachabgleich seien hochentwickelt und würden den Kontext einer Seite zu vielen Suchernfragen verstehen selbst wenn bestimmte Suchbegriffe nicht explizit im Text stehen.

00:04:26: Und auch der Einsatz von JavaScript, der sei völlig in Ordnung so lange Google darauf genauso zugreifen kann wie ein menschlicher Nutzer Bei der Bereitsstellung von Inhalten durch KI.

00:04:36: da Sei vor sich geboten, wie es von Google heißt generative KI könne ein nützliches Werkzeug sein um Themen zu recherchieren und eigene originäre Inhalte zu strukturieren.

00:04:47: Der Einsatz solcher Tools zur Erstellung von massenhaften Seiten ohne tatsächlichen Mehrwert für die Nutzer sogenannte Scale Content Appus verstoße jedoch gegen Google Spam-Richtlinien und sollte vermieden werden.

00:04:59: Ja und wenn man das Ganze jetzt mal bewertet und wenn Google behauptet Gutes SEO, sehr gutes Geo.

00:05:07: Dann ist das zwar ein wichtiger Teil der Wahrheit aber eben nur einen Teil denn ohne gute SEO wird der Erfolg in Geo ausbleiben.

00:05:14: Das ist klar!

00:05:16: Um in der KI Suche allerdings erfolgreich zu sein er braucht es mehr und das gilt insbesondere deshalb weil die KI-Suche mehr ist als nur Google.

00:05:24: Es gibt viele Plattformen mit anderen Konkurrieren vor allem OpenAI mit Chatchity oder Entropic mit Claude Und wenn Google zum Beispiel erklärt, der Einsatz von JavaScript sei in Ordnung, dann gilt das vor allem mit Blick auf Google selbst.

00:05:37: Andere KI-Bots wie z. B., die von OpenAI führen eben kein JavaScript aus und hier kann es Probleme geben, wenn Inhalte nur per JavaScript ausgeführt werden.

00:05:47: Also... Unterm Strich kann man sagen, SEO ist natürlich wichtig für Geo aber es gibt auch noch ein paar Dinge, die da hinzukommen.

00:05:57: Bleiben wir noch so'n bisschen bei Google und KI.

00:06:01: Ein Interview gab es in dieser Woche von Liz Reed.

00:06:04: Sie ist der Vice-Präsident Search bei Google und sie sprach in einem Podcast über Veränderungen, die die KI in der Suche auslöst.

00:06:15: Und die Integration von Modellen wie Gemini und AI Overviews verändert dabei nicht nur das verhaltene Nutzer sondern wirft auch Fragen darüber auf wie Besucher künftig auf Websites gelangen.

00:06:26: Und ja, laut ListRead verändert KI die Art und Weise wie Menschen suchen grundlegend statt Informationen in einzelne Keywords zu zerlegen.

00:06:34: Formulierende Nutzer zunehmend längere Fragen in natürlicher Sprache.

00:06:37: Früher gaben Nutzer zum Beispiel einfach die Suche Restaurants in New York ein eine Suchernfrage, die oft dann zu Ergebnissen führte, die für die meisten Menschen irrelevant waren weil die vorgeschlagenen Lokale zum Beispiel zu teuer oder auch monatelang ausgebucht waren.

00:06:52: Heute teilen den Nutzer der Suchmaschine ihre tatsächlichen komplexen Bedürfnisse mit.

00:06:56: Sie suchen beispielsweise nach einem nicht zu teuren Restaurant für fünf Personen mit veganen Option und der Möglichkeit, dass man ein Hund mitbringen kann.

00:07:04: Die Nutzer erwarten, dass der Computer die Übersetzungsarbeit leistet und direkt die passenden Antworten liefert und zudem senkt die KI die Hemmschwelle für das Stellen von Fragen.

00:07:12: Nutzer würden dadurch neugieriger und des Gesamtvolumen der Suchern fragen.

00:07:16: Das würde nach oben gehen.

00:07:18: Eine Sorge vieler Websitebetreiber ist ja, dass Nutzer durch KI generierte Zusammenfassung direkt in der Suche bedient werden und nicht mehr auf externe Links klicken Und Liz Reid hat dieser These widersprochen und im Angezweifel, dass Menschen sich zwischen KI antworten und dem Web entscheiden müssen.

00:07:35: Vielmehr würden sie sich KI- und das Web in Kombination wünschen!

00:07:41: Es gibt zum Beispiel Suchanfragen, bei denen Nutzer lediglich eine schnelle Antwort benötigen.

00:07:45: Wie z.B.

00:07:45: bei der Suche nach dem Wetter aber oft wollten die Menschen tiefer in ein Thema eintauchen oder die spezifischen Perspektiven und Expertisen anderer Menschen hören.

00:07:54: Und bei Themen wie z. B. Mode reiche den meisten Nutzern kein Chatboard weil sie weiterhin Wert auf die individuellen Meinungen legen.

00:08:02: Die KI-Übersichten sollen hier als Einstieg dienen, um es den Nutzern im Anschluss leichter zu machen auf entsprechende Websites zu navigieren und sich tiefer einzulesen.

00:08:13: Website Betreiber bedeutet das eine qualitative Verschiebung des Traffics und dadurch sollen dann sogenannte Bounceklicks abnehmen.

00:08:21: Das sind Klicks von Nutzeren die eine Website nur kurz besuchen um eine schnelle Information abzugreifen und die Seite sofort wieder verlassen.

00:08:28: Und wenn Nutzer die Absicht haben, einen ausführlichen Artikel zu lesen werde die KI im Gegenteil sogar dabei helfen.

00:08:34: Die richtige Seite zu finden auf der sie dann auch weiterhin wertvolle Zeit verbringen.

00:08:39: Auch kommerzielle Absichten Bleiben laut Read von KI-Antworten unberührt.

00:08:44: Eine KI können Nutzer zwei Informationen über Produkte liefern, aber den eigentlichen Kaufprozess wie zum Beispiel den Erwerb vom Schulen kann sie nicht abschließen und dafür müssten sich Nutzer nach wie vor zu den Händern durchklicken.

00:08:57: Das gilt zumindest aktuell noch, aber es gibt ja auch entsprechende Entwicklungen.

00:09:01: schon dass die KI auch das übernimmt.

00:09:04: Stichwort KI-Agenten.

00:09:07: Zudem hat Read auch betont, dass Google auf ein gesundes Website-Ökosystem angewiesen sei um seinen eigenen Dienst aufrecht erhalten zu können.

00:09:17: Ihr habt über das gerade im Hintergrund mein Hund Joshi Bellen gehört.

00:09:20: Genau!

00:09:21: Wie sieht es jetzt aus mit der Qualität im Zeitalter von AISLOB?

00:09:26: Mit der Verbreitung von KI wächst die Sorge vor massenhaft generierten minderwertigen Inhalten dem sogenannten AISLob, Viele der KI-Masseninhalte, die zielen darauf ab Antworten auf jede noch so banale oder absurde Frage zu produzieren und darunter könnte die Qualität der Suchergebnisse dann leiden.

00:09:45: Und dieses Problem hat Liz Reed aber ein bisschen klein geredet oder relativiert und darauf hingewiesen dass BAM keine Erfindung der KI sei sondern schon vorher massenhafte Menschen produziert worden sei, lange bevor KI-Modelle das übernommen haben.

00:10:01: Und für Google stellt sich daher nicht primär die Frage wie viel Slop insgesamt im Web existiert sondern es geht viel mehr darum bis weiterhin hochwertige Inhalte gibt und wie die Supermaschine diese an die Oberfläche bringen kann.

00:10:13: Die Herausforderung für Google bleibt dann im Kern dieselbe nämlich die Super Maschine muss einfach untelige Seiten durchsuchen Spam aus dem Index ausschließen und sich darauf konzentrieren, vertrauenswürdige und ja auch hochwertige Inhalte zu finden.

00:10:28: Und dieses identifizieren Aussortieren von Spam das ist das traditionelle Tagesgeschäft von Google die Qualität dabei hochzuhalten und dafür durch Such-Google weitaus mehr Webseiten als letztendlich überhaupt in den Suchindex aufgenommen und den Nutzern angezeigt werden.

00:10:46: Gerade viele minderwertige Seiten werden von Google bewusst ignoriert, um den Anteil an Spam und Slop in den Suchergebnissen auf einem sehr niedrigen Niveau zu halten.

00:10:56: Ja also wenn man das so bewertet nicht nur die Art wie wir suchen verändert sich durch KI grundlegend auch die Produktion der Inhalte wird mehr durch KI beeinflusst.

00:11:05: Manche Inhalte lassen sich heute schon komplett per KI erstellen, während es bei anderen Inhalten nicht vorstellbar ist.

00:11:12: Dass die Produktion aus den Händen der Menschen gegeben wird.

00:11:15: Klar ist BAM hat's schon immer gegeben und daran ändert auch die KI nichts.

00:11:18: nur die Adenweise wie es BAM entsteht die passt sich durch KI an.

00:11:24: Ja ich hab's ja vorhin schon erwähnt Es gibt eine neue Abkürzung nämlich AEO steht für Agentic Engine Optimization Und wir kriegen es ja mit.

00:11:34: Die Zukunft des Webs wird immer mehr von Agenten, KI-Agenten geprägt und dass sich dabei auch durchaus ein realistisches Szenario handelt das sehen wir anhand der schnellen technischen Entwicklungen die uns regelmäßig präsentiert werden, KI-Agenten sammeln und verwenden Informationen auf eine allerdings grundlegende andere Weise als Menschen.

00:12:01: Wenn Websites weiterhin vor allem für menschliche Nutzer optimiert werden dann bleibt ein wachsender Teil des Publikums für die eingesetzten Tools unsichtbar.

00:12:12: um Inhalte im Web bestmöglich durch KI-Agente nutzbar zu machen sofern man das möchte Kann man die Techniken der AEO nutzen?

00:12:20: Und die sorgen dann dafür, dass die Agenten die relevanten Emotionen finden und effizient und sie genau auch abrufen können.

00:12:28: Also AEO bedeutet einfach nur, Inhalte so zu strukturieren, zu formatieren und bereitzustellen, dass sich von KI-Agenten effektiv genutzt werden können – nicht nur menschlichen Lesern!

00:12:39: Und das kann man auch so ein bisschen mit der klassischen SEO vergleichen.

00:12:41: Während zero Jahre lang darauf abzählte Inhalte für Webcrawler und menschliches Klickverhalten zu optimieren, ist AEO die gleiche Idee für einen anderen Konsumenten nämlich die KI-Agenten, die autonome Inhalter abrufen, pausen und verarbeiten.

00:12:57: Die wichtigsten Faktoren der AEO sind einmal die Auffindbarkeit also können Agenten zum Beispiel eine Dokumentation finden ohne JavaScript render zu müssen, haben wir ja vorhin auch schon kurz drüber gesprochen.

00:13:10: Dann die Analysierbarkeit das heißt sind die Inhalte maschinenlesbar ohne dass eine visuelle Layout Interpretation erforderlich ist also ohne dass da groß was gerandert werden muss?

00:13:21: zum Beispiel dann wichtig die Tokeneffizienz passt der Inhalt in die typischen Kontextfenster von Agenten ohne abgeschnitten zu werden?

00:13:29: Und da ist es eben wichtiger aufgrund der großen Mengen von Daten und Informationen, die von den KI-Agenten verarbeitet werden.

00:13:37: Dass hier die Information in knapper und kompakter Form vorliegen.

00:13:41: Dann haben wir noch die sogenannte Fähigkeitssignalisierung oder Capacity Signalling.

00:13:47: Da geht's darum dass eine Dokumentation den Agenten erklärt was zum Beispiel einer API kann und nicht nur wie man sie aufruft.

00:13:55: und dann nicht zuletzt auch noch die Zugriffskontrolle, lässt zum Beispiel die Robotsteak-State in Traffic von KI-Agenten überhaupt zu.

00:14:04: Ja!

00:14:04: Und ich glaube oder bin mir relativ sicher dass uns das Thema AEO in nächster Zeit – auch wenn es jetzt leider wieder eine neue Abkürzung ist – ja mehr beschäftigen wird als wir vielleicht jetzt noch denken Erweiterung der klassischen SEO sein wird.

00:14:26: Zum Schluss gab es auch noch ein interessantes Interview in einem Podcast und zwar mit Sunder Pitschei, er ist ja CEO von Google.

00:14:37: Er war im Podcast CheekyPint und hat dort über Google's KI Suche die Zukunft der Suche und die weitere Entwicklung gesprochen Und auch das hat natürlich Relevanz für Seeho und auch für Website Betreiber.

00:14:53: Zunächst mal auf die Frage, wird es die Suche in zehn Jahren noch geben?

00:15:00: Ja da hat Pitcher schon eine sehr interessante Antwort gegeben.

00:15:04: er sagt nämlich die Suchen werde zum Agent Manager, in dem man viele Dinge machen kann.

00:15:10: Also statt einer Zeile Anfragen und zehn blauen Links öffnet der Nutzer dann eine Oberfläche, in der mehrere Agenten parallel Aufgaben bearbeiten, z.B.

00:15:18: ein Reiseplan oder Produkte vergleichen, Formulare ausfüllen um Ergebnisse zusammenstellen.

00:15:23: und ja als Referenz nannte Pitcher hier das Google Coding Tool Anti Gravity Und ein Großteil dessen, was heute reine Informationsfragen sind.

00:15:35: Das wird dann in der Suche agentisch und das heißt es werden einfach Aufgaben abgeschlossenes werden viele Aufgaben parallel ausgeführt und die klassische Suchanfrage mit Keyword einer Suchergebnis Seite oder einem Klick.

00:15:49: das wird dann zur Ausnahme und wichtig ist in diesem Zusammenhang auch die Geschwindigkeit denn da legt Google auch einen großen Wert drauf.

00:16:00: Google Mist in der Suche interne Latents Budgets, in Millisekunden und Teams bekommen etwa dreißig bis oder zehn Millisekten dürfen einen Teil selbst verbrauchen müssen den Rest dann an die Nutzer weiterreichen.

00:16:13: Und die Suchenlatents ist in den letzten fünf Jahren um dreißzig Prozent gesunken obwohl gleichzeitig viel an Funktionalität hinzugekommen ist.

00:16:21: Und dieser Anspruch an die Geschwindigkeit ist Googles struktureller Vorteil auch gegenüber, zum Beispiel OpenAI und Entropic.

00:16:28: Denn die vertikale Integration von eigener Hardware, von Modellen oder Produkten ermöglicht eben auch Antworten, die sich anfühlen wie die klassische Google Suche allerdings als komplette Antwort und nicht nur als Linkliste.

00:16:43: Aber spannend ist insbesondere was Pitchites Rolle von Websites und Publishern gesagt hat oder viel mehr, was er nicht gesagt hat.

00:16:52: Im gesamten Interview das hat siebzig Minuten gedauert über die Zukunft der Suche taucht zum Beispiel das Wort Publisher kein einziges Mal auf und Websites erwähnt Pitchi nur einmal in einer historischen Anekdote über Börsch und Mamm.

00:17:05: das ist eine Google Algorithmen in der es um das Verstehen von Webseiten als Trainings- oder Ranking Signale geht.

00:17:12: mit der offenen Webindex als Ressource der Suchen wird nicht als eigenständiger Wert besprochen, auch nicht verteidigt oder irgendwie strategisch definiert.

00:17:22: Und man kann das wenn man möchte wohlwollend deportieren.

00:17:25: vielleicht war es schlicht nicht das Thema des Gesprächs und die beiden Interview haben wir auch nicht danach gefragt.

00:17:31: Man kann's aber auch anders sehen.

00:17:33: in der internen Erzählung wie Google seine Zukunft sieht sind Publisher dabei einfach keine strategische Variable.

00:17:40: Der zweite Signal verstärkt auch diese Wahrnehmung.

00:17:43: Und zwar betont Pitcher mehrfach Google sei supply constrained, das heißt also Google sei abhängig einfach von der Zulieferung von Ressourcen bzw.

00:17:52: Nachfrage besteht überall.

00:17:54: Der Flaschenhals ist aber die Rechenleistung des Speicher und auch der Strom.

00:18:00: Die knappe Ressource ist nicht mehr der Index sondern das Modell.

00:18:04: Damit verschiebt sich die Machtbanance und wer ein Modell hat... Der kann auch die Welt abbilden.

00:18:11: Wenn der Großteil der Informationsanfragen agentisch wird, dann bedeutet das, der Agent holt sich die Antwort, der Nutzer klickt nicht.

00:18:18: und für Informationswebsites wie Ratgeber, How-to Definition oder Vergleichstabellen bedeutet dass das Google als Hauptkanal weiter an Volumen verliert.

00:18:28: Es ist wichtig, eine Diversifikation vorzunehmen.

00:18:31: Also Newsletter, Community Podcasts, eine Apps, Social Media

00:18:35: usw.,

00:18:36: müssen dazu beitragen die Verluste aus der Suche zumindest teilweise zu kompensieren.

00:18:41: Wenn Agenten Asynchro und Recherchen zusammenfassen sind generische Zusammenfassungen wertlos.

00:18:46: was bleibt?

00:18:46: Sind proprietäre Daten oder die eigene Meinung kuratierte Erfahrungen, Community, Transaktionen und Tools aktiv auch in Anspruch nimmt, also all das was ein KI-Agent zumindest noch nicht bieten kann.

00:19:01: Publisher die nur Text produzieren den einen Modell ebenfalls produzieren kann die werden genau von diesen Modellen ersetzt und in der Agentenwelt geht es darum von Agenten als vertrauenswürdige Quelle zitierten weiter empfohlen zu werden.

00:19:14: dass verschiebt die Disziplin.

00:19:16: Struktur der Daten, maschinenlesbare Autorität, IEAT, Zitierbarkeit aber auch klassischer Markenaufbau sind wichtig damit Nutzer aktiv nach der Marke fragen und nicht nur nach den Informationen.

00:19:28: Und die Fokussierung auf Geschwindigkeit zeigt, langsam überladene Websites werden zukünftig immer öfter übersprungen.

00:19:34: und ja die Google Core Webwattels waren erst die Vorstufe.

00:19:37: was kommt?

00:19:38: das ist wesentlich anspruchsvoller.

00:19:41: Und wenn KI-Agenten für Standardfragen ausreichen, dann liegt der verbleibende menschliche Traffic dort wo Standardantworten nicht reichen.

00:19:48: Haben wir ja auch gerade schon angesprochen.

00:19:50: Auch User Generated Content könnte da eine Möglichkeit sein.

00:19:57: Das soll das entscheidende Jahr werden.

00:19:59: Das soll der Wendepunkt für agentische Workflows in Unternehmen sein?

00:20:03: Für die Verbraucherseite kann sich das ähnlich entwickeln.

00:20:07: Das heißt wer jetzt Strategien für die Welt nach der klassischen Suche aufsetzt, hat realistisch zwölf bis achtzehn Monate, bis der Wandel im Traffic deutlich sichtbar wird.

00:20:19: Wenn das so kommt!

00:20:20: Also es klingt jetzt ein bisschen dramatisch aber ja wir sehen ja auch die Veränderungen im Bereich der Technik sind gerade sehr schnell und sehr stark.

00:20:30: also ich kann mir vorstellen dass es zumindest einen Teil dieser Entwicklung geben wird.

00:20:37: wie genau das werden wir sehen werden wir beobachten wissen.

00:20:41: Website Betreiber und Seos lautet die Empfehlung, auf diese Dinge setzt, der hat auch für die Zukunft ganz gute Chancen weiterhin bedeutend und präsent zu sein.

00:21:18: Ja und damit mit diesen Gedanken sind wir ja auch schon wieder am Ende dieser Ausgabe von CEO im Ohr.

00:21:24: ich freue mich dass ihr bis hierhin zugehört habt und ja ich freu mich natürlich noch mehr wenn ihr das nächste mal auch wieder dabei seid hier bei CEO im ohr auf seo südwest in etwa einer Woche Schaut auch gerne regelmäßig auf Seeo Südest vorbei, da gibt es für euch immer und täglich die aktuellsten Seeo News.

00:21:41: Bis dahin wünsche ich euch eine gute Zeit!

00:21:43: Und ja dann bis zum nächsten Mal.

00:21:45: Tschüss euer Christian.

New comment

Your name or nickname, will be shown publicly
At least 10 characters long
By submitting your comment you agree that the content of the field "Name or nickname" will be stored and shown publicly next to your comment. Using your real name is optional.