|

Mittwoch, 28. Mai 2014

Tag 13 - On Page Optimierung

On page Optimierung - strukturierte Daten für Robots und andere Suchmaschinen

  • meta tag keywords - für Google Suche nicht relevant - für alle anderen schon.
  • wir brauchen "Titel" und "Descriptions" 
  • jede Unterseite URL muss auf Keywords optimiert werden
  • Kriterium - wie viele Indexierte Seiten (Seiten die über Suchmaschinen gefunden werden können) hat die Website  (old times)
  • Speed - wie lange braucht crawler um durch die Seite zu gehen (saubere HTML)
  • CSS Datei (Gestaltung von Seite) - sollte ausgelagert werden - damit webcraler schneller ist
  • Alter der Domaines relevant
  • Sitemap - Struktur - Seitenübersicht einer Website - bei großen Web von Vorteil
  • Robot.txt - Datei die Infos an crawler gibt was erlaubt und nicht erlaubt ist.

HTML
<head> nur für suchmaschine infos
<meta>!
  <meta name="keywords" content="Keyword1, keyword2...bis zu 6 Begriffe

Snippet:
 <meta> name= "title" content="keyword" />
       <meta name="description" content="keyword

<meta name_"author" content="Dein Name">
<a href='https://plus.google.com/Profil ID' rel='author'

</head>

<body>  für die Suchmaschine und für den user (was wir sehen)

Überschriften (keywords). h1 (darf nur einmal vorkommen), h2 (die wichtigste Überschrift)-T!, h3, .....bis h6

URL 5-6 Ebenen tief (www.honig/deutschland/Berlin/imkerei....) Keyword so weit vorne wir möglich

Website/Server/Verzeichnisse:

Ordner "meine Website"
Ordner "CSS"
Ordner "Images"
Ordner "Admin"

URLs sind für die EWIGKEIT!!!!
Permalink ändere, dann muss - wenn ich schon etwas veröffentlicht habe, die Seite - die nicht mehr Erreichbar ist -  im Crawler

Robots.TXT
www.meineWebsite.de/meineURL
www.meineWebsite.de/search/meineURL
www.meineWebsite.de/meinetoteURL

www.seitenreport.de - analysiert Website nach über 100 Kriterien
www.woorank.de - Websiten Analyse

Analyse über unsere Blogsite über Webmaster Tool & google analytics

Keine Kommentare:

Kommentar veröffentlichen