00:00:00: Wusstest du, dass du es schaffst mit 1 Automatisierung deine
00:00:04: Website-Daten, also deine Analyse-Daten, automatisch auszuwerten
00:00:08: und einen darauf basierenden SEO-Report zu erstellen? All das mit NNN.
00:00:12: Im Hintergrund siehst du gerade den Workflow, der bei mir läuft und der besteht
00:00:16: aus 2 Teilen. Da gehen wir jetzt gleich näher darauf ein was du dir
00:00:19: aber schon mal mitnehmen kannst kommentiere mit Seo workflow egal wo du dieses
00:00:23: video oder diese podcast folge siehst oder schreibt mir eine e-mail an hallo Add
00:00:27: felix minus content minus marketing punkt die beschreibung oder die
00:00:30: e-mail adresse findest du in den show notes Und dann schicke ich dir diesen
00:00:34: Workflow als Template, dass du dir den bei dir einbauen kannst.
00:00:38: Jetzt gehen wir mal kurz darauf ein, wie das Ganze aufgebaut ist und was vor
00:00:42: allen Dingen hier entsteht. Du siehst hier im
00:00:45: ersten Part starte ich den Workflow und hier in
00:00:49: diesem Bereichen ziehe ich mir die kompletten Daten meiner Kunden.
00:00:53: Also die sind hier einmal fix hinterlegt. Ich kann jederzeit
00:00:56: einen Kunden hinzufügen. Ich kann auch Daten der Kunden quasi vorher
00:01:00: rausnehmen und im Endeffekt laufen dann hier diese Daten einmal für
00:01:03: die Search-Konsole, für die Sitemaps der Kunden
00:01:07: und für die Analyse, also Analytics, wenn Kunden ein Analytics-Konto
00:01:11: haben, laufen dann hier einmal zusammen, werden dann hier durch Codenotes
00:01:15: quasi gefiltert und laufen dann Schritt für Schritt, Kunde für Kunde durch
00:01:19: diesen Loop durch. Was dann im nächsten Step passiert,
00:01:23: ist, der Kunde oder die Daten des Kunden werden hier in den
00:01:26: Workflow reingegeben und als allererstes wird die Sitemap
00:01:30: gezogen. Also die, ja, die Sitemap XML
00:01:34: wird quasi hier als sogenannten HTTP-Requests, da brauchen wir uns
00:01:38: nicht größer darauf eingehen, werden quasi einmal eingelesen,
00:01:42: werden dann hier in ein JSON-Format umgewandelt und dann in jedem
00:01:46: Fall in eine Tabelle formatiert. Also hier das hier ist quasi der Schritt, der befasst
00:01:49: sich mit der Sitemap. Und was als nächstes passiert,
00:01:53: hier werden, ja ist einfach nur ein Sicherheitsmechanismus, dass halt Duplikate
00:01:57: quasi entfernt werden. Wenn irgendwelche Daten doppelt da drin sind in der Sitemap, was
00:02:01: ja im besten Fall erstmal nicht vorkommen sollte, werden die
00:02:04: hier deaktiviert. Hier
00:02:08: im nächsten Step ist wieder ein Code Note. Filter nach relevanten
00:02:11: Seiten. Das hat ganz einfach den Hintergrund, du hast ja auch Danke-Seiten,
00:02:16: Kontaktanfrage, Einfall oder Impressum-Datenschutz,
00:02:19: also unrelevante Seiten, die du überhaupt nicht für deinen
00:02:23: SEO-Report benötigst. Warum ich die hier ausklammer,
00:02:27: kommen wir gleich zu, aber es ist auf jeden Fall ganz wichtig hier schon mal
00:02:31: festzulegen, also wenn du den Workflow nur für dich quasi aufbaust, dass
00:02:34: du hier die Seiten einträgst, die du auf jeden Fall aus dem
00:02:38: SEO Workflow ausklammern willst. Hier wird jetzt
00:02:43: ein Filter stattfinden. Hier wird quasi gefiltert, wenn du in die Sitemap
00:02:47: reingehst, siehst du wann wurde als letztes eine Seite aktualisiert
00:02:51: und das genau passiert hier dass ich immer wieder wenn der Durchlauf
00:02:55: gestartet wird die zuletzt aktualisierten also die
00:02:58: ältesten Seiten quasi die noch mal ein Refresh nötig haben
00:03:02: dass die quasi oben angestellt werden dann ganz einfach
00:03:06: weitergegeben zu werden. Da wir natürlich dann den Workflow nicht mit
00:03:10: allen Seiten vollpuffern wollen, weil wir dann halt schon mal das Problem haben,
00:03:13: dass irgendwann der Workflow zu lange läuft, zu lange auf Antworten gewartet wird und
00:03:17: natn dann quasi in dem Falle aussteigt, limitieren wir das ganze hier.
00:03:21: Das muss man einfach so einen sweet spot finden, auch vor allem
00:03:25: auf die Tatsache basiert, dass du das natürlich auch im Anschluss abarbeiten musst. Ich glaube
00:03:28: bei mir sitzt es auf 2 Stück aktuell. Also Es werden immer 2 Websites quasi
00:03:32: untersucht und dann wird das ganze hier nochmal über einen Codenote
00:03:37: quasi vorbereitet, weil in NNN die Daten ganz
00:03:40: gezielt an so einen Loop übergeben werden müssen, weil der sonst nach quasi einem
00:03:44: Durchlauf aussteigt. Und Das habe ich quasi hier mit dem Codenote
00:03:48: umgangen. Als nächstes geht es in diesen Loop
00:03:52: und das hat jetzt den Hintergrund. In diesem Loop selber
00:03:56: gehe ich Seite für Seite quasi komplett durch. Was dann hier
00:03:59: passiert, hier werden noch mal die Daten aufbereitet und
00:04:03: hier zieht er sich den Status aus der Google Search Konsole.
00:04:07: Status bedeutet, ist die Seite indexiert, ist die Seite aktiv,
00:04:11: also so die ganzen Statistiken übergreifend für eine
00:04:15: Seite. Im zweiten Part, Get
00:04:18: Page GSC Stats, da ziehe ich jetzt alles
00:04:22: raus, was die einzelne Seite betrifft. Wenn du zum Beispiel in die Search-Konsole
00:04:25: reingehst und gehst auf eine Seite. Ja, du
00:04:29: gehst auf eine Seite. Ich habe jetzt gerade einfach mal meine alte Seite
00:04:33: quasi als Test aufgerufen, da keine
00:04:37: sensiblen Kundendaten drin stecken. Wenn du jetzt quasi hier,
00:04:41: was die Automatisierung macht, die geht auf den Bereich Seiten. Dahin
00:04:45: kommst du, wenn du auf deine Search-Konsole in Property gehst und gehst dann auf
00:04:48: Leistungen und kannst dann hier in dem Bereich auf Seiten
00:04:52: klicken. Einmal auf dem Bereich gelandet siehst du quasi
00:04:55: alle Seiten, die in die Search-Konsole eingelesen
00:04:59: wurden. Nehmen wir an, wir hätten jetzt in der Automatisierung die
00:05:03: Seite Business Storytelling durchgegeben. Dann kann ich hier draufklicken
00:05:07: und dann zieht die Google Search Konsole sich diese Seite quasi als Filter rein. Und
00:05:11: genau das gleiche mache ich auch mit der Automatisierung. Also ich setze quasi den Filter
00:05:14: auf eine spezielle Seite. Und was ich jetzt hier bekomme,
00:05:19: sind die kompletten Metriken, die hier unten drunter
00:05:22: stecken, zu jedem Suchwort. Also das ist eine Suchanfrage, zum Beispiel
00:05:26: Business Storytelling hat 692
00:05:29: Impressionen, eine relativ niedrige CTR. Wie gesagt, hier die Seite, die pflege ich
00:05:33: gar nicht mehr, weil mittlerweile alles auf der Maschinenbautriff-Marketing läuft.
00:05:38: Und hier sehe ich jetzt zum Beispiel für Business Storytelling bin ich rein theoretisch auf
00:05:41: Platz 11, 5. Also Seite 2, erster Platz.
00:05:45: Dann gibt es noch Business, Leerzeichen Storytelling und hier kann man dann so ein
00:05:49: bisschen gucken, welche Keywords sind da alle drin und das,
00:05:53: was die Automatisierung dann in dem Falle macht, sie zieht mir alle Keywords
00:05:56: mit all den Bereichen rein. Gehen wir wieder zurück auf die
00:06:00: Automatisierung und übergibt diese an den zweiten
00:06:04: Input von so einem Merge-Node, also der quasi die Daten zusammenfasst.
00:06:08: Was dann als nächstes passiert ist quasi die
00:06:11: Google Analytics Daten werden gezogen. Jetzt habe ich hier noch einen IF-Bereich
00:06:15: vorgeschaltet, einfach aus dem Grund, weil jeder meiner Kunden, mit denen ich
00:06:19: zusammenarbeite, haben in jedem Fall eine Google Search-Konsole. Aber
00:06:23: nicht jeder arbeitet mit Google Analytics. Manche arbeiten
00:06:26: auch mit Matomo und es gibt auch andere, die haben gar keine Analyse-Daten, weil es
00:06:30: halt einfach, weil die sagen, okay, das ist einfach nicht unsere. Ja, legen
00:06:34: wir keinen Wert drauf, wollen wir nicht. Und dann versuche ich da auch keinen zu
00:06:37: missionieren. Wir klären natürlich darüber auf, dass die Daten wichtig
00:06:41: sein sind, halt die Webseite zu verbessern. Aber kann ja dann
00:06:44: im Endeffekt jeder für sich selber entscheiden. Was dann hier passiert
00:06:48: ist, der fragt ab, gibt es eine Analyse-ID? Wenn
00:06:52: ja, dann gebe ich diese Analyse-ID in
00:06:55: diesen Node rein. Du siehst auch hier, der Google Analytics Node ist
00:06:59: ein nativer Knoten, der so in NNN existiert. Und die
00:07:03: Search-Konsole, das läuft über einen sogenannten HTTP-Request,
00:07:07: den wir so programmieren. Da bin ich auch mit der Search Konsole angemeldet
00:07:11: also das passt alles und wenn
00:07:14: eben keine Property entsteht werden hier quasi Dummy Daten
00:07:18: vergeben. Das hat einfach den Hintergrund weil der sonst hier nicht mehr durchlaufen würde, wenn
00:07:22: von da kein Input mehr kommt. Und das einfach zu entgehen, habe ich
00:07:25: hier Dummy-Daten, die ich reingebe und die werden dann hier quasi in dem
00:07:29: Falle wieder über einen Codenote. Du siehst, ich arbeite unfassbar viel mit Code
00:07:33: Notes hier drin. Das wird dann hier wieder verarbeitet und geht dann
00:07:36: in den sogenannten, also in das Gehirn des Ganzen, also in den
00:07:40: SEO Analyse Agent. Also das ist quasi ein
00:07:44: Agent Modul. Ich sage aber hier schon mal vorab, es ist kein
00:07:48: agentischer Workflow in dem Sinne, wie viele das auch
00:07:52: verkaufen. Dieser er in et n und jetzt habe ich hier einen Agenten aufgebaut. Hier
00:07:55: das hier, das würde ich mehr als Workflow betrachten, weil es wirklich von links nach
00:07:59: rechts läuft, klar vorgegeben ist und die Art und Weise,
00:08:03: wie dieser Agent jetzt handelt,
00:08:07: hat eigentlich nichts mit einem agentischen Workflow zu tun, weil ich da schon ganz klare
00:08:10: Leitplanken vergeben habe. Was jetzt hier passiert,
00:08:14: du siehst hier den Agent und siehst den gleichen hier nochmal. Das hat einfach den
00:08:18: Grund, es kommt hin und wieder vor, wenn zu viele Anfragen gestellt werden, dass
00:08:22: dann ein Fehler kommt, also quasi ein Error, konnte keine
00:08:26: Daten abrufen, wie auch immer und dann würde der Workflow stehen bleiben.
00:08:29: Deswegen habe ich hier quasi ein Error Handling drin und dann läuft der
00:08:33: Output hier in diesen oder der Error quasi hier rein in den
00:08:37: SEO-Analyst 2. Der hat ein anderes KI-Modell
00:08:40: angeknüpft. Hier arbeite ich mit OpenAI, hier in dem Fall mit
00:08:44: Anthropic Claude. Das heißt, ich habe wie ein Fallback da drin. Also wenn ein
00:08:48: Fehler aufkommt, dann würde er hier in dem Fall mit dem zweiten Agent
00:08:51: weitermachen. Die Daten, die hier rauskommen, also hier steckt halt
00:08:55: wirklich dieser komplette Inhalt drin, wie der arbeiten
00:08:59: soll, was ankommt, was analysiert werden muss. Hier wird alles übergeben,
00:09:03: sehr strukturiert und wird hier dann quasi mit dem
00:09:06: Prompt, den siehst du ja dann, wenn du das ganze runtergeladen
00:09:10: hast, wird der quasi einmal komplett verarbeitet.
00:09:15: Was dann passiert, da kommt ein Markdown raus und das Markdown wird hier
00:09:18: in ein HTML umgewandelt. Hier
00:09:22: oben der Flow, dieses Wait to comply with AI oder
00:09:26: with RP limits, das hat einfach nur den Hintergrund, dass wir hier eine
00:09:30: bewusste Pause einprogrammieren, damit eben falls irgendwo
00:09:33: mal was nicht 100%ig funktioniert oder irgendwo, dass wir
00:09:37: die Limits nicht erreichen, programmiere ich hier bewusst eine Pause
00:09:40: ein. Und dann fahre ich hier ganz fein mit, dann passiert auf jeden Fall nichts,
00:09:44: dann hat er immer genug Zeit sich wieder zu erneuern. Das würde ich dir auch
00:09:47: empfehlen, gerade wenn du mit großen Token Daten arbeitest, dass du
00:09:51: auch so eine Pause bewusst mit einplanst, damit ja
00:09:54: eben die die API-Schnittstelle da nicht innerhalb kürzester Zeit
00:09:58: ausgereizt wird. Die Daten fließen hier wieder
00:10:02: zusammen, wobei von oben keine Daten in dem Sinne kommen. Das ist einfach nur, der
00:10:05: wartet quasi darauf, bis die Pause durchgelaufen ist und von hier quasi das
00:10:09: Markdown kommt und dann läuft das Ganze hier rüber in einen Edit Fields
00:10:12: oder Set Node, wo das nochmal ein bisschen aufbereitet wird.
00:10:16: Und dann im nächsten Step wird eine HTML-Tabelle
00:10:20: gemacht aus diesen ganzen Daten und diese wird dann per Mail
00:10:24: versendet. Genau, das wäre der
00:10:27: SAP Workflow, der jetzt quasi einen Kunden
00:10:31: komplett verarbeitet. Der bekommt hier quasi beide Kundenseiten durchgegeben.
00:10:36: Die beiden Kundenseiten werden hier in dem Loop nacheinander verarbeitet. Ich
00:10:39: erhalte eine Mail pro Seite und wenn das
00:10:43: durchgelaufen ist, geht quasi das Feedback zurück an den
00:10:46: vorherigen Workflow. Gerade aufgerufen und hier sieht
00:10:50: man jetzt zum beispiel hier der ist jetzt komplett durchgelaufen am anfang hast du den
00:10:53: ja noch gesehen dass er quasi am laufen war und hier hatte jetzt
00:10:57: 5 daten komplett verarbeitet und ist dann quasi
00:11:00: hier ja im Endeffekt fertig geworden. Was dann
00:11:04: passiert, da gehen wir jetzt gerade mal in mein Mail-Programm rein. Jetzt siehst du
00:11:07: hier, hier sind quasi die kompletten Mails angekommen.
00:11:11: Also hier siehst du jetzt die die Mails, die Daten,
00:11:15: was genau gemacht wurde und jetzt könnte ich mir hier so eine
00:11:19: Datei aufmachen und sehe hier den
00:11:23: kompletten Output. Also hier hast du quasi den Bereich,
00:11:28: was genau passiert wurde, also On-Page-Audit, aktuelle
00:11:31: Metatexte, zieht sich die Metastruktur runter, zieht sich die
00:11:35: Überschriftenstruktur, diagnostiziert die 3 größten
00:11:38: SEO-Fehler, in dem Falle Optimierungsplan wird automatisch
00:11:42: erstellt, was geändert werden soll, die Erwartung, da muss man mal ein
00:11:46: bisschen gucken, dass es teilweise ein bisschen halluziniert, wie der
00:11:49: Title Tag mit den Keywords verbessert werden kann. Und da muss man
00:11:53: natürlich jetzt nochmal spezifisch drüber gucken, weil man hier aktuell noch
00:11:56: Gefahr läuft, es könnte jetzt sein, er packt Keywords da rein, die
00:12:00: aber explizit für andere Seiten. Also es gehört schon noch ein
00:12:04: bisschen Entscheidungs... Ja, ein bisschen Hirnmasse
00:12:08: dazu, was man jetzt hier alles optimiert. Das ist auch alles nicht in Stein gemeißelt.
00:12:12: Aber es gibt einem einen sehr guten Ansatz, sauber
00:12:15: strukturiert, strategisch, was genau gemacht werden kann. Hier
00:12:19: kann zum Beispiel noch Content-Optimierung, neue Inhalte hinzufügen.
00:12:23: Ja, muss mal gucken, was da passt auf den Kunden. Also es
00:12:27: kommt halt hier irgendwie über die Keywords Schilderfabrik, Schilderhersteller
00:12:31: in dem Falle und hochwertige Schilderproduktion. Das sind
00:12:35: Keywords für die die Seite schon angezeigt wird, aber die dann im
00:12:38: besten Fall noch optimiert werden können. Ja und dann haben wir hier
00:12:42: quasi so eine Zusammenfassung, was ich jetzt quasi mit dem Falle
00:12:46: mache. Das will ich dir auch noch gerade zeigen, das ist nämlich der Workflow, der
00:12:49: bei mir danach funktioniert, auch mit KI. Wir sind jetzt gerade bei mir
00:12:53: in Antropic Cloud gewechselt, als Desktop-Variante. Macht ihr jetzt
00:12:56: hier, ist das eigentlich egal, das kannst du auch in der Online-Variante machen. Und habe
00:13:00: jetzt einfach den kompletten E-Mail-Inhalt kopiert
00:13:04: und füge den hier ein und sage dann einfach nur
00:13:07: Start. Wo ich jetzt hier drin bin, ist quasi ein Projekt und das Projekt
00:13:11: hat ganz viele Anweisungen, die hier nochmal Folge
00:13:15: geleistet. Also wo einfach die Unsicherheiten, die vielleicht
00:13:18: durch die KI in der Automatisierung reinkommen, werden hier nochmal
00:13:22: systematisch geprüft, überarbeitet und das ist quasi dann, was hier
00:13:26: rauskommt, mein klares To-Do.
00:13:30: Und somit habe ich hier ein Zwei-Wege-System. Ich habe erstmal die Analyse, die vollautomatisch
00:13:34: abläuft. Und den ganzen Part gebe ich quasi hier rein, 1 zu 1.
00:13:38: Und das wird dann hier nochmal in einen, ja ich sag mal so zweiten Report
00:13:42: zum Abarbeiten reingepackt. Und den kann ich mir dann in meine Aufgabenplanung reingehen, kann
00:13:45: ihn entweder einem Mitarbeiter zuordnen oder kann es in dem Falle dann selber
00:13:49: machen. Hier ist zum Beispiel der Punkt EEAT,
00:13:53: also Experience, Expertise, Authority und Trustworthiness,
00:13:57: was da quasi mittlerweile von den KI suchen oder auch von der
00:14:01: normalen Google-Suche. Da haben die sich ein bisschen davon
00:14:04: freigemacht, dass halt jeder irgendwelchen Müll hochlädt, auf Deutsch gesagt,
00:14:08: sondern dass es halt wirklich darauf ankommt, dass die Leute Vertrauen
00:14:11: wecken, Expertise zeigen, Erfahrungen zeigen. Und das
00:14:15: ist mittlerweile ein wichtiger gewordener Ranking-Faktor
00:14:19: für viele Seiten. So, und jetzt wird hier gefragt,
00:14:22: da ist nämlich extra so ein Zwischenschritt, gibt es hier Punkte,
00:14:26: die ich noch einfügen kann für diesen Fall, Oder
00:14:30: soll so schon gestartet werden? Jetzt kann ich hier sagen bitte
00:14:33: ohne EAT starten. Dazu gibt
00:14:37: es dazu gibt es hier
00:14:41: nichts. Einfach damit das ganze jetzt durchläuft. Also der fragt einen
00:14:44: interaktiv gibt es hier noch Punkte die du hinzufügen willst, die
00:14:48: ich einfach dann für die Optimierung nutzen kann oder sollen wir so schon mal
00:14:52: starten. Ja und jetzt wird im Grunde genommen eine Zielgruppenanalyse gemacht,
00:14:55: ist für mich immer super wichtig einfach zu gucken trifft das
00:14:59: was ich aktuell auf meiner Webseite kommuniziere überhaupt die Zielgruppe,
00:15:03: die ich ansprechen will. Und das ist ein super wichtiger Punkt, dass du hier
00:15:07: einfach nochmal wie so eine doppelte Prüfung drin hast, von den
00:15:10: Texten, wie analysiert oder wie interpretiert die KI
00:15:14: deine Seite aktuell und sprechen wir damit die richtige Zielgruppe an
00:15:18: oder kommunizieren wir völlig in die falsche Richtung. Und
00:15:21: ja, das ist im Grunde genommen der Punkt, wo wir hier
00:15:25: eingehen müssen. Hier ist jetzt zum Beispiel niedrige Verweildauer 9, 75
00:15:29: Sekunden. Das ist hier quasi eine Produkt Übersicht Seite, wo quasi
00:15:32: verwiesen wird auf Unterschiede auf Unterseiten. Von daher ist es jetzt hier nicht ganz so
00:15:36: dramatisch. Ja, und jetzt
00:15:39: bekomme ich hier eine Content-Optimierung mit Substanz, H1-Bereich,
00:15:43: Erweitern aktuell unsere Produktpalette. Und dann
00:15:47: sagt er hier, hier finden Sie weitere, also hier quasi optimiert unsere
00:15:51: Produktpalette, die Schilderfabrik und so weiter und so fort
00:15:55: und habe halt hier wirklich eine komplette
00:15:58: Optimierung. Er baut noch ein Schema auf für die Seite also Schema.org
00:16:02: strukturierte Daten die ich noch mit einbauen kann. Das ist quasi hier
00:16:06: komplett mit drin. Eine Qualitätskontrolle und das
00:16:10: ist dann eigentlich die Optimierung, die ich dann Seite für Seite
00:16:13: durchführe, dann wirklich sagen zu können, jetzt kann ich die ganzen
00:16:17: Daten messen. Ich sehe ja dann in der Search-Konsole in meinen Ranking-Tools, wo alle
00:16:20: meine Kunden quasi, ja, das Ranking getrackt wird, dass wir auch
00:16:24: sehen können, dass wir in die richtige Richtung arbeiten. Das geht dann alles quasi
00:16:28: in 3 bis 4 Wochen danach. Kann ich die Daten dann ziehen, kann die
00:16:31: Entwicklung mir anschauen von den jeweiligen Seiten und kann
00:16:35: halt so wirklich kontinuierlich mit messbaren
00:16:39: Daten, die aus den Kundenseiten schon kommen, die Seiten weiterhin
00:16:42: optimieren. Dadurch habe ich jetzt hier einen Workflow geschaffen,
00:16:46: der mir sonst, ja, ich bräuchte für jeden Kunden, bis ich die Daten gezogen
00:16:50: habe, die Daten analysiert habe, kann man eigentlich rechnen, dass ich pro Kunden
00:16:53: allein für die Analyse, die die Automatisierung macht, eine Stunde bis anderthalb Stunden
00:16:57: brauche, das komplett zu ziehen. Und so habe ich diesen
00:17:01: kompletten Part jetzt quasi ausgegliedert, habe die Möglichkeit, wenn ich
00:17:04: Verbesserungen finde, die in die Automatisierung einfließen lasse,
00:17:08: halt immer bessere Daten schon als Basis zu bekommen und bin so,
00:17:12: habe die Möglichkeit viel schneller die Seiten meiner Kunden durch
00:17:16: zu optimieren, wenn mir irgendwo was auffällt und mein Kunde profitiert quasi
00:17:19: davon, dass ich hier den Prozess runter reduziert habe auf minimalen
00:17:23: Aufwand, einfach viel schneller dann die Ergebnisse zu erzielen. Ja, wenn
00:17:27: du bis hierhin dabei geblieben bist, wenn du Interesse hast, diesen Workflow einfach mal zu
00:17:31: testen, Kleiner Spoiler vorab, wenn du noch keine Erfahrung mit
00:17:34: nnn hast oder mit diesen Themen, wird es wahrscheinlich schwierig,
00:17:38: dann macht es vielleicht Sinn sich den workflow mal anzugucken, einfach mal ein Gespür dafür
00:17:42: zu bekommen, wie die Daten so vergeben oder weitergegeben werden. Wenn du schon
00:17:45: ein bisschen in NLTN Erfahrung gesammelt hast, Zugriff auf
00:17:49: Analytics und Google Search Konsole hast, dann ist der Workflow
00:17:53: genau der richtige für dich. Der funktioniert auch für eine einzige Seite
00:17:56: und ja dann kannst du deine Seite verbessern. Würde mich über ein Feedback freuen
00:18:00: und ansonsten abonnier den Kanal, egal wo du jetzt hier zuhörst. Und dann
00:18:04: wünsche ich dir viel Erfolg beim Optimieren deiner Seite. Dein Felix, bis dann,
00:18:07: ciao!