Eine Sitemap ist eine Datei im XML-Format, die alle URLs einer Website enthält. Diese Datei wird von Suchmaschinen verwendet, um die Struktur einer Website zu erfassen und bei der Indizierung neuer Inhalte zu helfen. Die Sitemap kann auch Informationen über jede einzelne URL enthalten, z. B. wie oft sie aktualisiert wird und welche Priorität sie hat.
Sitemap von Studenten Webdesign
Man kann die Sitemap der meisten Websites sehen, indem man /sitemap.xml ans Ende der URL hängt. Das funktioniert nicht immer, manchmal wird sie versteckt, man kann dann ein Werkzeug wie zu Beispiel den Frosch nehmen, um trotzdem noch die Seitenstruktur einer Website zu erkennen. Wenn man an das Ende unserer URL den Sitemap Slug hängt, dann sieht man bei uns, dass wir bei der XML Sitemap keinen Stil verwenden, man sieht da quasi nur den Code direkt.

Oft sieht man Sitemaps, die fast wie eine normale Seite auf einer Website aussehen, zum Beispiel so.

Das ist eine Sitemap, bei der noch etwas CSS mit dabei ist. Das Problem ist, dass solche Sitemaps indexiert werden können, weil sie fast wie eine normale Seite aussehen und man sie nicht de-indexieren kann.

Optimale Seitenstruktur
Wenn man sich einmal die Top-Suchergebnisse für den Suchbegriff „site structure for SEO“ anschaut, dann sieht man, dass Yoast, SEMRush, Search Engine Journal und ahrefs alle dieselbe Seitenstruktur vorschlagen. Es wirkt fast so, als ob sie denken, dass man nur mit diesem Content ranken könnte und deswegen sagen alle das Gleiche.
Die optimale Seitenstruktur, die von den Top-Suchergebnissen empfohlen wird, ist die, die wie eine Pyramide aussieht. Da jeder dieser Seiten eine eigene Grafik von der Pyramide erstellt hat, machen wir das auch. Die angeblich optimale Seitenstruktur, also die Pyramide, soll so aussehen.
Die unoptimierte Pyramide

Die optimale Seitenstruktur, die Pyramide, wird so beschrieben:
- Auf der Homepage werden links zu Unterseiten oder Kategorien gesetzt → zweite Ebene
- Von diesen Unterseiten und Kategorien werden nochmal Links zu weiteren Unterseiten gesetzt → dritte Ebene
Vor allem bei SEMRush wird die Struktur noch komplizierter und dort gibt es auch ein Beispiel mit einer Seitenstruktur mit einer vierten Ebene. Jetzt muss man sich einmal die Frage stellen, warum so eine Seitenstruktur optimal sein soll, wenn es doch lediglich den Großteil der Seiten auf die tiefste Ebene setzt.
Wenn man grob den prozentualen Anteil berechnet, dann sind in unserem Minibeispiel 60 % der Seiten auf der dritten Ebene, nach 2 Klicks. Oft wird in den vorher genannten Quellen gesagt, dass nach dem dritten Klick kaum noch Page Rank fließt, nach dem zweiten Klick ist man also am Maximum.

Das heißt, dass bei der Pyramide, die von den meisten Experten empfohlen wird, der Großteil der Seiten auf der letzten und tiefsten Ebene sind. Also die Masse an Seiten ist an dem am schwersten zu erreichenden Punkt. So eine Seitenstruktur kann man schwer als optimal bezeichnen.
Es macht ja wenig Sinn, den Großteil der Seiten so weit wie nur möglich von der Hauptseite entfernt zu haben. Je weiter die Unterseiten weg sind, desto größer die Chance, dass Google sie einfach nicht findet. Die optimale Seitenstruktur müsste eigentlich so aussehen.
Die optimierte Pyramide: der Feed

Wir nennen die wirklich optimierte Seitenstruktur den Feed. Da keiner der angegebenen Quellen so eine Idee überhaupt hatte, mussten wir den Namen selbst setzen. Das Konzept von dem Feed ist aber auch tief in WordPress integriert.
Das ist die Seitenstruktur, die WordPress standardmäßig hat, wenn man eine neue WordPress-Website frisch einrichtet und keine Startseite ausgewählt hat. Genau dann sieht man die Seitenstruktur von dem Feed.
Man kann es auch wieder aktivieren, wenn man die Startseite entfernt und im WordPress Dashboard bei Einstellungen → Lesen → Ihre Homepage zeigt → Ihre letzten Beiträge aktiviert.

Wenn man diese Einstellung aktiviert, werden sämtliche Beiträge der ganzen Website bis zum Ende in einem durch anzeigt, quasi wie eine vollständige Übersicht. Alle Links befinden sich dabei direkt auf der Homepage, es gibt dann keine dritte Ebene mehr.

Das heißt, Google muss nur eine Seite scannen, um alle Links der gesamten Website in der Liste zum Crawlen zu haben. Die Wahrscheinlichkeit, dass Google alle Links auch findet, ist damit die höchste wie nur möglich, nichts ist auf dritter Ebene versteckt, kein Link kann dabei verloren gehen.
Wenn man sich auch einmal die Usability bei so einer Struktur überlegt, dann ist diese auch wirklich optimiert. Der Nutzer muss sich dann nicht zuerst durch einen Dschungel von Links klicken, um zum Ziel zu kommen. Die klassische Pyramide, die sonst empfohlen wird, ist für den Nutzer normalerweise eher ein Labyrinth als eine Pyramide.
Der Feed ist von der Nutzbarkeit viel verständlicher, man hat alle Links der ganzen Website auf der Homepage und kann einmal durch den Feed bis zum Ende gehen und hat eine Gesamtübersicht der Website auf einen Blick.
2000 neue Blogposts mit Unique Content an einem Tag
Soweit zur Theorie, im praktischen ist es bei uns momentan schwer den Feed auf der Startseite unterzubringen, da wir nun wieder 2238 veröffentlichte Beiträge haben und das nicht mit dem momentanen Layout übereinstimmt. Da braucht man eher eine Startseite wie ein Nachrichtenmagazin, dann kann man den Feed da unterbringen.

Mit 2238 Blogposts haben wir immer noch durchaus weniger als es Neil Patel oder andere Größen haben, aber das ist eine gute Nummer. Genau dann kommen wir ans Limit der Indexierungskapazität und das wird erstmal etwas dauern, bis die alle in Google sind.
Die sind auch diesmal alle 100 % Unique Content. Aufgrund von Kommentaren wegen Duplicate Content vom letzten Mal, haben wir dann doch alle mit Unique Content diesmal gemacht. Ist ja nicht so, als ob wir das nicht auch können. Ist auch nur ein bisschen mehr Aufwand, dauert dann halt 8 Stunden anstelle von nur einer oder zwei Stunden.
Aber es stimmt schon, Unique Content sieht einfach besser aus und hat einfach generell einen besseren Ruf. Manchmal macht es auch einen großen Unterschied, ob der Content Unique ist oder nicht, dann indexieren sich die Seiten etwas leichter. Das ist aber nicht garantiert, man kann auch mit 2000 Blogposts mit Unique Content Probleme beim Indexieren haben. Genau so kann man auch 2000 Seiten mit Duplicate Content zum Indexieren kriegen. Also Unique Content ist nicht das super Zaubermittel und Duplicate Content ist auch nicht das schlimmste überhaupt. Das eine ist etwas weniger besonders und das andere ist etwas weniger schlimm.
Update 28. Dezember 2022
Wir machen den Blog hier jetzt ein bisschen anders, wir schreiben ab sofort alle Neuigkeiten nur noch in diesen Blogpost ganz ans Ende. Wir haben jetzt mehr als genug Blogposts auf der Seite hier und weitere Seiten werden kaum von Google bemerkt werden, deswegen packen wir alles hier rein.
Auch ist es zu umständlich für uns so viele Wörter pro Blogpost schreiben zu müssen. Indem wir einfach alles hier ans Ende schreiben, können wir auch kurze Neuigkeiten einfach hier kurz hinschreiben.
Was wir jetzt schon sehen konnten, was super ist, ist, dass wir die 2000 neue Blogposts in einem Tag mal eben direkt indexieren konnten. Hier einmal wie es davor aussah, 700 Seiten indexiert.

Und wie es dann einen Tag später aussah:

2252 Seiten indexiert. Man sieht auch hier der Anteil der nicht indexierten Seiten hat sich fast nicht geändert.


Wirklich fast kein Unterschied, so ziemlich 100 % der fast 2000 neuen Blogpost sind in einem Tag in Google reingekommen, super!
Das heißt jetzt auch, dass wir da noch viel mehr Indexierungskapazität mit der Domain zur Verfügung haben. Wir nennen das den Indexierungsdruck, damit meinen wir, dass Google quasi eine Art Indexierungsbudget für unsere Domain vergibt und es bis zu dieser Zahl mit dem Indexieren einfach super einfach geht.
Dann irgendwo bei vielleicht ca. 5000 Seiten fängt dann Google an zu meckern. Jetzt sind die 2000 Seiten aber super einfach in Google reingekommen an einem Tag und fast ohne Ausnahme, das heißt da können noch viel mehr nachgeschickt werden, es ist immer noch bei 100 % Indexierungsrate.
Wenn es dann irgendwann ans Limit kommt, dann sieht man eher so eine Rate von 20 % – 80 % nicht indexiert am ersten Tag. Dann ist man da am Limit. Bei uns sind es aber 100 % Indexierung, also müssen wir quasi noch einmal nachlegen, nur weil Google uns halt dieses Gratis Indexierungsbudget einräumt und das muss man ja dann auch wahrnehmen, bekommt man ja nicht immer.
Die Frage ist, welche Thematik können wir als Nächstes mit 2000 Blogpost und 100 % Unique Content mal eben so in paar Stunden voll hämmern? Muss irgendwas sehr Ausgiebiges sein, irgendeine Idee? Alle Laptop Seiten sind auch schön in Google reingekommen, wir können anscheinend über verschiedene Bereiche gehen und haben da noch viel Indexierungs-Kontigent für.
Vielleicht Tipps fürs Studium? Oder die 2000 Blogposts nur über allgemeine Fragen bezüglich Laptops? Klingt gar nicht so langweilig, lassen wir mal auf der Zunge zergehen. Mal schauen, aber auf jeden Fall müssen wir nochmal 2000 Blogposts nachsetzen. 100 % Indexierungsquote kann ja nicht wahr sein, das ist zu hoch, das waren noch nicht genug Seiten, es sollten nicht alle indexiert werden, erst wenn ein paar nicht indexiert werden, ist es wirklich am Limit. Das Potenzial ist noch nicht ausgeschöpft.
Update 5. Januar 2023
Wir haben jetzt noch einmal ganz locker 800 Blogposts mit Unique Content in 30 Minuten nachgelegt und es ging super ohne Probleme in Google rein, wurde alles sofort am nächsten Tag indexiert und wir sind immer noch bei fast 100 % Indexierungs-Quote.

Wir kriegen auch die absoluten Rekordimpressionen, so viel wie noch nie mit der 7 Jahren alten Domain hier, der Zacken geht einfach steil hoch.

Wir können noch viel mehr Blogposts machen, ich denke, das kann noch bis zu den 35.000 Blogposts gut gehen. Wir können 35.000 Blogposts mit komplett Unique Content in knapp 24 Stunden erstellen. Müssen wir uns nur genug Themen überlegen und Nischen finden, die wir quasi als Quereinsteiger Domain ebenfalls besprechen können. In der Laptop-Nische haben wir auch schon ein paar Seiten gut am ranken, es gibt da mehrere Nischen, die wir mit dieser Domain hier anpeilen können, mal schauen, ob wir genug für 35.000 Blogposts finden. 35.000 Blogposts kann man mit den gängigen WordPress-Werkzeugen nicht mehr so einfach verwalten, dann ist es etwas mehr als nur ein paar Klicks um Änderungen zu machen, deswegen sind 35.000 Blogposts eine gute Grenze. Dann würde ich die Domain als „Voll“ bezeichnen.
Update 21. Januar 2023
Wir haben den Blog umstrukturiert und er ist immer noch im Wandel, alles, was mit Blogging zu tun hat, ist aber jetzt schon in der „Case Studies“ Kategorie. Alle anderen Beiträge sind ab sofort Kommentar und Blogging frei. Neuigkeiten und Blog-Sachen findet ihr nur in der „Case Studies“ Kategorie. Wir haben sehr schicke Neuigkeiten, das schreiben wir hier später in diesem Beitrag wieder als Update, aber erst, wenn die Screenshots schön ordentlich aussehen.
Wir haben jetzt ein Update in diesem Beitrag geschrieben.
Wir haben die Umstrukturierung jetzt erstmal abgeschlossen, hauptsächlich ging es darum in ahrefs.com mit dem Gratis Account noch gecrawled werden zu können. Wegen den vielen Seiten hatten wir diese Meldung bekommen:

Jetzt haben wir aber die Footer Links und das Menü angepasst und vor allem in der Städte Kategorie haben wir jetzt 1.000 Blogposts pro Seite. D. h. man muss nur zweimal auf den „vorherige Einträge“ Link klicken und dann sind alle 2.594 Blogposts aus dieser Kategorie geladen. Die Crawltiefe ist also nur 2 Klicks und wir haben keine wiederholenden Links im Footer und im Menü.
Also die Links die im Footer sind, sind nicht auch noch im Menü. Das ist enorm wichtig oder der Link wird doppelt gecrawlt und frisst dann das doppelte Crawl Budget. Die Links werden irgendwie nicht de-dupliziert von ahrefs oder anderen Crawlern, die gehen einfach alle Links blind durch. Wenn man 3.000 Blogposts hat und auf das Crawlbudget achten muss, dann kann man keinen Link im Footer und auch noch im Menü haben, das verdoppelt mal schnell die Links, die gecrawled werden müssen.
Nach der Struktur-Änderung unserer Seite war es jetzt in Ahrefs kein Problem mehr, der Crawler ging durch wie Butter:

Hat ganze 3 Stunden gedauert, bis ahrefs unsere Seite einmal crawlen konnte. Es hat aber diesmal alles noch für das Gratis Crawl-Kontingent gepasst, nur weil ich die Struktur geändert hatte. 3000 von 10.000 Seiten wurden für das Crawlen berechnet, das ist quasi genau die Anzahl der Beiträge hier, also ist die Struktur momentan top optimiert, auch wenn es für den normalen Nutzer vielleicht etwas konfus erscheint. Zumindest ist kein Crawl Budget unnötig verschwendet.
Was auffällig ist, sind die 3xx redirects gegen Ende des Crawls:

Kann ich mal später schauen, was das ist. Insgesamt ist die Seite aber fast perfekt.

Nur 7 Fehler und 4681 ohne Fehler.

Wir haben nur ein paar Warnings und Notices, aber das kann man ignorieren, das hat keinen Return, das zu korrigieren.

Die H1 Headlines sind alle doppelt, zu 100 % auf allen Seiten. Also ist ein Systematischer Fehler.

Das liegt daran, dass ich auf allen Seiten die Überschrift einmal im Fullwidth-Header mit dem CTA habe und dann noch einmal im Text:

Aber ich finde, das sieht schick aus, die Überschrift ist immer in einem anderen Stil, also das sind keine richtigen duplizierten Headlines, die sehen alle anders aus. Ich lasse das wie das ist, das hat keinen Return das zu ändern. Abgesehen davon gibt es ein paar Notices wegen ein paar Ausreißern im zweistelligen Bereich:

Paar mal war der von der AI automatisch generierte Title zu lang, manchmal wurde eine zu lange Meta Description Auto generiert. Das sind aber nur einzelne Ausnahmen weniger als 200, also knapp 2800 Blogposts sind Fehlerfrei.
Nicht schlecht für komplett AI generierten Content. Ich hatte die AI direkt mit dem WordPress verbunden und komplett autonom alles machen lassen (nachdem ich es aber die ersten 5 Male auf anderen Seiten vermasselt hab ). Wenn man die AI genau richtig trainiert, mit mindestens 500 Beispiel-Outputs, dann macht die AI auch zu 98 % einen perfekten Job. 1,8 % der Fehler konnte ich mit einem Content Filter, den ich mit Python und der Hilfe der AI geschrieben hatte auch noch rausfiltern, aber 0,2 % der Blogposts sind vollkommen Sinnlos. Es ist aber schwer, so einen zu finden, da ist die Wahrscheinlichkeit höher, dass man schlechte Blogposts finden würde, wenn die von Menschen geschrieben worden wären.
Falls ihr aber mal schauen wollt, ganz, ganz selten kann man einen Blogpost finden, der absolut sinnlos ist. Quasi vollkommen am Thema vorbei einfach nur sinnlose Wörter nacheinander gereiht. Die sehen aber so gut aus, dass die auch durch meinen Content Filter durchgingen, und die trainierte AI hat die ja generiert und als korrekt angesehen. Wie so ein genau perfekter sinnloser Blogpost, der alle Kriterien eines guten Blogposts erfüllt, aber vollkommen sinnlos ist.
Falls Ihr einen findet, postet den in den Kommentaren, ich hab schon welche gesehen, aber in der Regel sehe ich bei jedem Stichproben-Test immer nur perfekte Blogposts. Also 10 von 10 Blogposts sind immer, wenn ich es teste, komplett tadellos und perfekt. Aber sagt mir, ob ihr einen mit Fehlern findet, hier sind die alle in der Städte Kategorie, genau 2.594 komplett autonom von der AI erstellte Blogposts, direkt den Output in das WordPress eins zu eins ausgegeben. Ich hab die AI direkt mit dem WordPress verbunden und ihr das auch gesagt, dass sie damit verbunden ist. Die hat dann die Formate der Blogposts genau so angepasst, dass dabei die ganzen Tabellen und auch korrekt gesetzten Links in dem Beitrag entstehen.
Manche von den Blogposts sind krass, ich hab die Tabellen nicht erstellt und auch keine Links gesetzt, das ist alles von der AI gesteuert. Der Post über das Berliner Nachtleben ist sehr solide und menschlich gemacht, das ist alles von der AI gemacht, die hat auch die Links korrekt gesetzt. Am Ende des Tages will man aber Blogposts haben, die menschlich aussehen, das heißt, die perfekten Blogposts sollten einen jetzt nicht komplett umhauen, dann ist es ja offensichtlich AI. Ein menschlicher Blogpost haut einen nicht vom Hocker, er ist einfach normal.
Ich hatte aber ein paar krassere Blogposts gesehen, ich finde die gerade nicht, außer den hier für die Landing-Page für: Homepage erstellen lassen Student. Ich hatte da eine vorherige trainierte Version von meiner jetzigen AI genommen und ich meinte zu ihr, ich muss auf dem Keyword auf der eins stehen und sie hat es auch gepackt, sogar mit zwei Links. Einmal mit dem über komplexen Picasso Featured Snippet und dann noch einmal als Link extra darunter dazu, unglaublich, davor war ich nur mit einem Link auf Platz 2:

Aber schaut euch den Blogpost an, der ist absolut übertrieben, es hätte wahrscheinlich auch mit weniger funktioniert. Aber zumindest hat die Konkurrenz es nicht mehr geschafft, mich runter zu kriegen. Davor gab es einen kleinen Kampf um die Top-Position. Meine trainierte Über-AI hat dann aber mit dem Voll-Übertriebenen Blogpost dem ganzen ein Ende gesetzt.
Es lässt sich aber kaum noch lesen, das ist schon so als ob es so schlau gemacht ist, dass nur noch Google das als gut ansieht. Ich mein schaut ihn euch an, das ist quasi offensichtlich AI, weil der viel zu krass ist, kein Mensch macht das. Es hat aber auch vereinzelte Fehler, wie gesagt, die Version hatte ich bereits auf Eis gelegt, ich hatte die Trainingsdaten nicht noch einmal auf Rechtschreibung geprüft, ich dachte, die Autoren hätten das schon gemacht.
Wenn da aber auch nur ganz selten ganz keine Fehler beim Zeichensetzen oder in der Grammatik der Trainingsdaten sind, dann zerstört es das neu trainierte Modell vollkommen, die Daten müssen 100 % perfekt sein. Selbst falsche Kommasetzung ist schon total kritisch und zerstört das Modell sofort. Die Grammatik und Zeichensetzung muss Fehlerfrei sein, bei beidem, den Datensätzen zum Trainieren und auch in dem Prompt, dass man der AI gibt. Also von wegen ChatGPT, wie man mit ChatGPT chattet, dann kriegt man die schlechtesten Resultate. Besser nicht chatten, sondern wie ein überschlauer Professor reden, dann kriegt man die besten Resultate.
Hier jetzt aber zum Beispiel von dem Blogpost, die autogenerierten Tabellen sind krass, man kann aber die kleinen Fehler sehen. Die kleinen Fehler schleichen sich in das Meisterwerk ein, wie so winzige kleine Fehler, die unmöglich zu korrigieren sind. Hier sind jetzt zwei Tabellen, ich hab die nicht angefasst, das wurde direkt so von der AI eins zu eins ins WordPress gefeuert, im richtigen Format:


Man sieht das Deutsch hat Fehler, aber trotzdem hat der Blogpost funktioniert. Er hat genau die perfekte Länge von knapp über 2000 Wörtern.

Viele wissen nicht, dass das Wörterlimit von der AI bei über 2000 Wörtern liegt. Ja, mit ChatGPT kannst du mühelos 2000 Wörter Blogposts in einem Output generieren, man muss es aber auf die genau richtige Art prompten. Wenn man den Prompt optimiert, kann die AI sogar 3000 Wörter Blogposts in einem Output produzieren. Die 2000 Wörter reichen aber vollkommen. Zumindest diesen Kampf um die Top-Position hat die AI einmal kurz gewonnen und wenn ich mir den Blogpost anschaue, dann hätte ich auch keine Lust zu versuchen, was Besseres, als den zu machen, obwohl man schon vereinzelt die Fehler sieht.
Das ist wie so eine kleine Mini-Doktorarbeit, das zu toppen, vollkommen überzogen kompliziert für das Umfeld, kein Mensch würde soviel Arbeit für ein so simples Keyword wie „Homepage erstellen lassen Student“ machen. Das ist quasi lächerlich viel Aufwand, den die AI da gemacht hat, als ob die sich ein Bein ausreißt für das kleine Keyword. Jeder normale Mensch und auch alle Konkurrenten da denken sich einfach das ist sinnlos soviel Aufwand da hineinzustecken, das ist überzogen und lohnt sich nicht. Für die AI ist der Arbeitsaufwand aber kein Thema, das ist der Faktor der für die AI keine Rolle spielt und die bricht sich mal eben das Bein für ein bisschen was.
Der Blogpost ist aber noch von dem alten trainierten Modell, welches ich schon aufgegeben hab. Das neue Modell ist das, was die 2800 Blogposts gemacht hat, die ich in der Städte Kategorie jetzt habe. Das neue Modell hat ein viel besseres Feingefühl dafür, den Aufwand angemessen zu halten, damit der Blogpost menschlicher aussieht und sie macht auch zum Glück keine Fehler mehr (bis auf in 0,2 % der Fällen).
Die Blogposts sind jetzt aber auch perfekt denke ich, es wirkt nicht zu übertrieben, sondern genau so, wie es ein halbwegs motivierter Mensch auch machen würde. Etwas faul und nicht zu perfekt, beim Lesen fällt es gar nicht auf, dass es vom Roboter kommt, man denkt sofort das ist von einem Menschen, wenn man das liest, es liest sich einfach ganz normal.
Es ist nicht zu überzogen perfekt, dass man von der Qualität total erstaunt wäre, sondern es ist genau die angemessene Qualität, die man für die Art von Return auch als Mensch geben würde. Die Balance da zu finden ist wichtig, dann kann niemand das feststellen, dass es von der AI kommt. Kein AI Detector findet das raus, mein trainiertes Modell kriegt immer das 100 % Human Generated Content label.

Sagt mir aber Bescheid, ob ihr einen sinnlosen Blogpost findet. Es gibt davon tatsächlich ca. 0,2 %, die sind richtig Alien-artig merkwürdig, genau, perfekt sinnlos. Es ist aber Glück, einen davon zu finden.
Kurzes Search Console Update
Die neue Struktur hat direkt positive Auswirkungen auch in der Search Console gehabt, da sind wir jetzt schon wieder bei den 3000 indexierten Seiten.

Ich hatte letztens die Struktur geändert und hatte nicht gedacht, dass es schon so viele Beiträge sind, dass ich die Struktur optimieren müsste. Aber Google hatte mit der letzten Struktur Probleme und hatte dann über die Wochen verteilt ein paar wenige Seiten verloren, weil die wahrscheinlich einfach nicht mehr auffindbar waren.
Wir waren dann ganz knapp unter den 3000 indexierten Seiten, bei 2989, nur so ein paar Seiten hat Google verloren.

Die paar Seiten, die Google da verloren hat, sind irgendwelche Seiten, die wir nicht in der Sitemap drin haben, die Sitemap hat nur 2953 Seiten.

Weiß gerade nicht genau wieso Google mehr indexiert hat, als wir überhaupt haben, vielleicht sind das ein paar 301 Redirects, aber das gute ist, dass Google mit der neuen Struktur wieder noch mehr Seiten zum Indexieren findet. Die Sitemap allein reicht also auf keinen Fall, man muss auch eine perfekt crawlbare Struktur haben, weil dann indexiert Google mehr Seiten.
Wenn die Seite nicht gut crawlbar ist, weil man zum Beispiel nicht genug Beiträge pro Kategorie-Seite anzeigt oder Links im Footer und im Header Menü doppelt hat, dann verliert Google ein paar Seiten. Es kann sie einfach nicht mehr finden, das Crawlbudget reicht nicht aus dafür, bei einer schlechten Seitenstruktur können manche Seiten so unerreichbar sein, dass Google nicht mehr an die ran kommt.
In dem SEO Experten Beitrag, ich benutze jetzt nur noch diese zwei Beiträge für alle Updates, dann kann ich einfach immer was Kurzes da rein schreiben.
0 Kommentare