article image

10 Tipps für besseres Suchmaschinenranking

Lesezeit: 5 min.

10.04.2020

Dieser Artikel erfordert ein paar Grundkenntnisse in der Entwicklung oder Pflege von Websites. Solltest du bei einigen Vorgehensweisen Hilfe benötigen, kannst du uns gerne [ref=help]hier kontaktieren[/ref]. Wir helfen dir gerne weiter. [b]1. Füge „width“ oder „initial-scale“ zu deinem Viewport-Tag hinzu.[/b] Suchmaschinen wie Google bevorzugen benutzerfreundliche Websites um ihren Nutzern immer das bestmögliche Ergebnis liefern zu können. Daher werden Websites, die für mobile Endgeräte wie Smartphones optimiert wurden, anderen Websites mit ähnlichem Inhalt bevorzugt. Suchmaschinen verwenden zum Durchsuchen von Seiten sogenannte Crawler. Crawler sind Computerprogramme, die deine Websites durchsuchen und analysieren. Damit der Crawler deine Website als „für mobile Endgeräte optimierte“ Website erkennt, solltest du zumindest deinem Viewport-Tag die Attribute „width“ oder „initial-scale“ hinzufügen. Diese Attribute stehen dafür, dass deine Website die Bildschirmeigenschaften, wie z.B. die Breite, berücksichtigt. [b]2. Füge ein <title> Element hinzu. [/b] Die meisten Seiten haben ein <title> Element und brauchen dieses auch, denn für Suchmaschinen ist dies ein wichtiges Element. Dieses besteht zu meist aus einer Kurzfassung der Inhalte der jeweiligen Seite und Suchmaschinen orientieren sich daran, ob diese für ihre Nutzer interessant ist. [b]3. Füge ein aussagekräftiges „description“ Attribut hinzu.[/b] Das Meta-Tag „description“ ist die Kurzbeschreibung deiner Website, die unter dem Titel deiner Website in den Suchergebnissen angezeigt wird. Suchmaschinen können den Wert verarbeiten um eine bessere Übersicht des folgenden Inhaltes zu bekommen. [b]4. Sende immer einen „OK“ Status Code.[/b] Stelle sicher, dass dein Server bei deinen Websites immer mit einem HTTP Status Code von 200 antwortet. Dieser Code bestätigt dem Crawler, dass dein Server die Anfrage richtig verarbeitet hat, sodass der Crawler diese verarbeiten kann. Selbst eine perfekt erstellte Website kann niemals in einer Suchmaschine angezeigt werden, wenn diese nicht mit dem Status Code 200 für „OK“ verarbeitet wird. [b]5. Stelle sicher das deine Website gecrawlt werden darf.[/b] In der Regel werden alle Seiten indexiert, die nicht explizit darauf hinweisen, dass sie dies nicht wollen. Beim Indexieren wird deine Website quasi bei der Suchmaschine „registriert“. Stelle also sicher, dass du solche Tags wie <meta name="robots" content="noindex"/> nicht verwendest, oder diese importiert werden, wenn du willst dass deine Seite indexiert und gefunden wird. [b]6. Erstelle eine gültige Robots.txt Datei.[/b] Eine Robots.txt Datei ist eine einfache Textdatei, die im Root-Verzeichnis deiner Website zu finden sein sollte. Crawler können diese Datei nutzen um zu verstehen wie du deine Website verarbeitet haben möchtest. Außerdem kannst du in dieser Datei auf deine Sitemap verweisen (siehe nächsten Punkt). [b]7. Erstelle eine Sitemap.[/b] Eine Sitemap ist ein sehr hilfreiches Werkzeug, um Suchmaschinen deine Websitestruktur näher zu bringen. Dadurch hast du mehr Möglichkeiten dem Crawler mitzuteilen welche Seiten auf deiner Website existieren und indexiert werden sollen. Außerdem kannst du noch Sprachattribute hinzufügen - sollte deine Website Multi-Lingual aufgebaut sein - um Nutzer auf ihre bevorzugte Sprache weiterzuleiten. [b]8. Denke an die „alt“ Attribute bei Bildern.[/b] Sicherlich enthält deine Website einige Bilder um deinen Inhalt optisch aufzuwerten. Leider sind Bilder die „Erzfeinde“ der Suchmaschinen. Mit der Zeit werden Suchmaschinen immer besser Bilder zu verarbeiten und deren Inhalt zu verstehen, jedoch ist jedes Bild eine Herausforderung, um die Semantik deiner Seite zu verstehen. Es stellt sich beispielsweise die Frage „Ist das nun ein dekoratives und nichts aussagendes Bild oder spiegelt es den gesamten Inhalt wieder?“. Die „alt“ Attribute bei den <img> Elementen helfen den Suchmaschinen zu verstehen, was du mit diesem Bild ausdrücken möchtest. Stelle dir eine Website vor, die nur aus Bildern besteht. Sie sieht sicherlich toll aus, nur was will sie aus Sicht der Suchmaschinen vermitteln? [b]9. Verwende eine gültige „canonical“ Relation.[/b] Dynamisch generierte Websites neigen dazu, den gleichen Inhalt über mehrere URLs anzeigen zu lassen. Als Beispiel könnte der Link zu einem roten Kleidungstück in einem Onlineshop „shop.net/artikel/kleid/rot“ oder „shop.net/artikel?obj=kleid&color=rot“ sein und es gibt unzählige Möglichkeiten, wie eine Seite geladen werden kann. Sollte also ein Crawler deine Seite über mehrere Links erreichen und immer den gleichen Inhalt sehen, so würde dies zu einem schlechten Ranking und damit zu einer niedrigeren Positionierung führen. Daher empfiehlt es sich immer ein Meta-Tag mit dem Attribut rel=“canonical“ hinzuzufügen, um dem Crawler mitzuteilen welche Seite er von den vielen Seiten zu berücksichtigen hat. [b]10. Vermeide Plugins.[/b] Plugins sind ganze Funktionalitäten, die einfach importiert werden und sofort verwendbar sind. Auf dem ersten Blick immer eine super Sache. Jedoch weisen Plugins vielseitige Probleme auf. Hier konzentrieren wir uns auf den asynchronen Teil. Die meisten Plugins sind Skripte, die in den HEAD-Teil der Seite eingefügt werden. Dabei wird eine Datei heruntergeladen und diese wird dann ausgeführt. Leider sind diese Dateien von Suchmaschinen nicht indexierbar. Dies bedeutet aus technischer Sicht, dass das Skript, also das Plugin, erst NACH der Verarbeitung des Inhaltes ausgeführt wird. Crawler sind aber keine Browser, sie interessieren sich nicht dafür was auf deiner Seite passiert, sondern nur dafür was für einen Inhalt diese liefert. Sollte deine Website also größtenteils auf [reftarget=help]Plugins[/reftarget] aufgebaut sein, die die Seite dynamisch aufbauen, wird diese erst nach dem Verarbeiten des Crawlers aufgebaut und der Crawler sieht im schlimmsten Fall keinen Inhalt. Kein indexierbarer Inhalt kann nicht zu guten Suchmaschinenergebnissen führen. [b]Wir helfen dir bei deiner Suchmaschinenoptimierung.[/b] Durch die Spezialisierung auf native Entwicklung von Websites, sind wir bestens darauf geschult Websites so suchmaschinenoptimiert zu entwickeln wie möglich. Nach dem Lighthouse Report erzielen unsere Seiten beste SEO-Ergebnisse. (Quelle: [url]https://www.webpagetest.org[/url] Stand: 10.04.2020) Somit können wir dir optimale Websites anbieten oder auch auf bereits bestehenden Seiten ganz einfach die gängigsten Fehler beseitigen, die dazu führen, dass deine Seite nicht ganz oben bei den Suchergebnissen angezeigt wird. Besuche unsere [url=https://www.taledraft.com]Website[/url] und lass dich überzeugen oder nutze direkt unser [url=https://taledraft.com/contact]Kontaktformular[/url]. Wir helfen dir gerne, das Beste aus deiner Website rauszuholen.

Autor: Kristof Heil

Diese Einträge könnten dir auch gefallen:

Test

20.04.2020

Lesezeit: 2 min.


Beste Performance für deine Onlinepräsenz

Test

08.04.2020

Lesezeit: 1 min.


Der neue TaleDraft Blog

Über TaleDraft

TaleDraft ist dein professioneller IT Dienstleister für Systeme, Plattformen, SEO, Apps und Websiten für Trier und Umgebung.

www.taledraft.com
search home taledraft