“Above the Fold“ oder auch “Above the Scroll“ bezeichnet den Bereich eines Mediums der die meist höchste Priorität hat. In Suchmaschinen sind dies meistens die ersten fünf Ergebnisse. Dieser Bereich ist für den Nutzer sichtbar ohne dass er scrollen muss. Dadurch besteht hier die meiste Aufmerksamkeit.
Ein Absoluter Link navigiert, im Gegensatz zum Relativen Link, auf eine Webseite auf welcher der Domainname in der URL angegeben wird. Im Bereich Onpage Optimierung ist die Form www.adresse.de empfehlenswert. Siehe auch: Relativer Link
Adjacency bezeichnet die Nähe von Keywords bei einer Suchanfrage. Ist die Distanz bestimmter Keywords gering, können in Suchmaschinen bessere Ergebnisse erzielt werden. Siehe auch: Keyword Proximity
Google Adsense ist ein Werbe-Programm, bei welcher Anzeigen auf Webseiten geschaltet werden können. Der Betreiber der Webseite erhält dabei eine Provision pro Klick.
Die Google Adwords sind Cost-per-Click Anzeigen, die im rechten Bereich einer Googlesuche platziert sind. Durch die Auswahl von effizienten Keywords erscheinen die Anzeigen lediglich bei relevanten Suchanfragen.
Affliates sind Partner von kommerziellen Webseiten. Bei Affliate-Programmen können auf den Webseiten dieser Partner Werbeobjekte (z.B. Banner) platziert werden. Der Betreiber erhält hierfür Provisionen.
Jedes Programm, z.B. ein Browser, das auf eine Webseite zugreift, hat einen bestimmten Agent Name. Dieser ist verbunden mit wichtigen Informationen.
Ein Algorithmus ist ein mathematisches Verfahren, durch welche eine Aufgabe gelöst werden soll. Im Bereich SEO ist der Begriff Algorithmus vor allem für das Suchmaschinenranking relevant. Die Algorithmen, durch welche das Ranking bestimmt wird, berücksichtigen die interne und externe Qualität einer Webseite.
Suchbefehl bei Google. Durch ihn können die Webseiten angezeigt werden, welche am häufigsten mit dem gesuchten Begriff / verlinkt sind.
Suchbefehl bei Google. Es werden die Webseiten angezeigt, die den gesuchten Begriff im Titel tragen.
Suchbefehl bei Google. Es werden die Webseiten angezeigt, die den gesuchten Begriff in der URL tragen.
Ein Alternativtext zur Beschreibung eines Bildes auf einer Webseite. Gerade bei deaktivierten Bildern oder bei langsamen Internetzugängen zahlt sich diese Maßnahme in der Suchmaschinenoptimierung aus.
Der Anchor-Text ist der Teil eines Link-Tags, welcher angeklickt werden kann.
Die zurzeit meist genutzte Software um einen Webserver zu betreiben. Der Apache Server existiert meist unter der Bezeichnung “LAMP“ und kann durch Module mit zusätzlichen Funktionen erweitert werden.
Application Programming Interface - Schnittstelle für die Anwendungsprogrammierung. Bei API spricht man im Bereich SEO meist von der Google API. Dadurch ist es möglich eine eigene Programmierschnittstelle zu nutzen. Über einen kostenlosen Account können Nutzer am Tag bis zu 1000 Anfragen versenden.
Ein Attribute ist eine zusätzliche Angabe zu einem Content Element. Siehe auch: Alt-Attribute
Eine Webseite die für ein bestimmtes Thema eine hohe Priorität aufweist. Verfügt über viele Inbound Links.
Wird von Suchmaschinen eingesetzt, um zu erkennen ob eine Anmeldung/Anfrage manuell oder automatisch vorgenommen wurde.
Links die auf eine bestimme Webseite verweisen. Wird in der Suchmaschinenoptimierung eingesetzt um die Linkpopularität zu steigern (Offpage Optimierung).
Webseiten die z.B. durch den Verstoß gegen Suchmaschinenrichtlinien in Suchmaschinen schlecht oder gar nicht mehr platziert sind.
Eine schlechte Platzierung bei Google mit einem Page Rank von 0 als Resultat eines Verstoßes gegen die Google Richtlinien. Häufigster Grund sind Spam-Maßnahmen.
Der Austausch von zwei unterschiedlichen Seiten nach der Indexierung in einer Suchmaschine. Heutzutage kaum noch wirksam.
Ein relativ neuer Begriff, welcher die Bannerblindheit beschreibt, denn Nutzer nehmen die großen Banner auf Webseiten oft überhaupt nicht mehr wahr.
Allgemeiner Begriff für illegale Aktivitäten und Maßnahmen im Internet.
Liste, auf welcher Webseiten landen, die wegen massiven Rechtsverstößen aufgefallen sind.
Diese Orientierungshilfe zeigt an wo sich der Nutzer gerade befindet. Zum Beispiel: Sumasearch > Glossar
Absprungrate einer Seite. Wertungskriterium von Google, bei dem die Verweildauer, eines Nutzers auf einer Webseite gemessen wird.
Webseite mit regelmäßig aktualisierten Beiträgen in chronologischer Reihenfolge. Zu den bestimmten Themen können meist ohne eine Registrierung Meinungen geäußert werden.
Automatisch oder manuell eingetragene Blogeinträge mit Werbung zum Inhalt. Ziel ist die Verbesserung der Linkpopularität.
Bezeichnet den Teil des HTML-Codes, der den eigentlichen Inhalt der Webseite enthält.
Die Boolschen Operatoren verhelfen zu einer logischen Verknüpfung der Keywords bei einer Suchanfrage z.B. durch “and“, “or“ und “not“.
Ein Bot ist ein Programm, welches so programmiert wird, dass es öfters hintereinander die gleiche Aufgabe erfüllt. Auf diese Weise soll Zeit gespart werden.
Brückenseiten sind Webseiten die speziell für Suchmaschinen aufgebaut werden. Sie wird so optimiert, dass die Keywords die relevanten Zielgruppen ansprechen. Diese Webseiten verfügen meist über nur einen Inbound und wenige Outbound Links.
Eine HTML Formatierung, die doppelten Inhalt ausweißt.
Der Inhalt einer Seite.
Eine Top-Level-Domain Endung die auf ein Land zeigt.
Unter Cache versteht man die Eigenschaft von Suchmaschinen, die es ermöglicht aufgerufene Webseiten zwischenzuspeichern, um sie an einem späteren Zeitpunkt erneut aufzurufen.
CMS bieten Nutzern die Möglichkeit Inhalte zu erstellen, bearbeiten und organisieren. Die bekanntesten CMS sind Jimdo, Joomla, Wix und WordPress.
Ist eine Formatierungssprache im Internet. In CSS stehen Abstände und Ränder, sodass Webseiten ein einheitliches Aussehen bekommen.
CGI bezeichnet eine Schnittstelle zwischen Server und Programmen, die bei der Ausführung einer Webseite bearbeitet werden. Dadurch können dynamische Dienste verwirklicht werden.
Die CTR beschreibt das Verhältnis der Impression zu der Anzahl der Clicks für ein Werbeobjekt.
Ein Computer oder Programm das auf die Daten, Dienste und Ressourcen eines Servers zugreift, nennt man Client.
Unter Closed Loop Verlinkung wird die Querverlinkung mehrerer Webseiten ohne In- und Outbound Links.
Die Konversionsrate gibt den Prozentsatz der Erfolge einer Webseite wieder. In einem Onlineshop z.B. würde diese an der Anzahl der Käufe gemessen werden.
Cookies sind Textdateien die temporär durch den Besuch einer Webseite auf dem Computer gespeichert werden. Sie fungieren als Informationsdatei; beispielsweise über die Besuchsdauer einer Webseite.
Abrechnungsmöglichkeit bekannt durch die Google Adwords. Der Nutzer Zahlt pro Klick auf seine Anzeige einen festgelegten Preis.
Ein Counter ist ein Besucherzähler, der die Anzahl der Aufrufe einer Webseite wiedergibt. Ein Nutzer kann allerdings für mehrere Aufrufe verantwortlich sein.
Unter einem Data Center versteht man ein Cluster von mehreren Computern die eine gemeinsame Aufgabe erfüllen.
Ein Dead Link ist ein defekter Link der nicht zu der erreichbaren Seite führt. Ursachen können u.a. ein Serverausfall oder eine Veränderung der Seitenstruktur sein.
Deep Crawl beschreibt die Eigenschaft einer Suchmaschine Unterseiten selbständig zu spidern und zu indexieren.
Ein Deep Link führt zu einer “tieferliegenden“ Seite auf einer Homepage.
Delisting bezeichnet die Löschung von Webseiten aus Suchmaschinen-Datenbeständen. Diese Maßnahme kann vom Betreiber der Webseite selbst veranlasst werden. Nicht selten verfallen Webseiten aufgrund rechtlicher Verstöße dem Delisting.
Deutsches Network Information Center - Diese Organisation verwaltet alle Top-Level-Domains “de“.
Ein Bestandteil der Meta-Tags. Einzigartige Beschreibung des Inhalts der Webseite.
Ein Dialer ist ein Einwahlprogramm welches selbstständig eine Verbindung zum Internet herstellt. Früher führt der Einsatz von Dialern oft zu betrügerischen Kostenfallen.
Siehe: ODP
Dieses Programm ist in der Lage Worte in Zahlen umzuwandeln und wieder zurück. Denn Zahlen können von Suchmaschinen schneller verarbeitet werden als Worte.
Top-Level-Domains: Domains mit den Endungen der Länder(.de, .nl etc.) sowie .org und .com. Second-Level-Domain: Bestehen aus einem Namen und einer nach dem Punkt folgenden Top-Level-Domain z.B. Google.com. Third-Level Domain /Subdomain: Keine eigene Domain sondern eine Abgrenzung innerhalb einer Domain.
Siehe “Brückenseite
Mehrere Webseiten / Domains mit identischem Inhalt.
Standardisiertes Meta-Datenformat mit 15 Beschreibungselementen.
Dublicated Content bezeichnet die Situation in welcher mehrere Domains mit identischem Inhalt im World Wide Web zu finden sind.
Dynamische Seiten sind erkennbar an Parametern in der URL () die sich aufgrund der häufigen Aktualisierungen der Webseite ständig ändern. Mittlerweile ist es möglich dynamische Webseiten mit einfachen Verfahren in statische umzuwandeln.
Das Gegenteil zur Absprungrate auf Bounce Rate , gibt an wie lange Nutzer auf einer Seite verweilt sind und fließt direkt in die Bewertung einer Webseite ein.
Automatische, webbasierte Eintragung in Suchmaschinen. Viele Dienstleister bieten diese Suchmaschineneitragung an, es ist allerdings ein sehr zeitaufwendiger Prozess.
Eine Software, die eine Webseite selbstständig in Suchmaschinen und Kataloge einträgt. Es ist jedoch empfehlenswert eine halbautomatisierte Software zu nutzen da jede Eintragung individuelle Probleme mit sich bringt.
Ruft ein Nutzer eine Webseite auf welche nicht mehr existiert, wird die Fehlerseite angezeigt. Gibt es keine Fehlerseite, erscheint lediglich der “Fehler 404“.
Externe Links verweisen auf Webseiten außerhalb der eigenen Webseite. Eine hohe Anzahl an externen Links führt in der Regel zu einer erhöhten Relevanz der eigenen Webseite. Es gibt jedoch auch schlechte Links die für eine schlechtere Platzierung in Suchmaschinen verantwortlich sein können.
False Drop bezeichnet bei einer Suchanfrage nicht relevante Ergebnisse die u.a. aufgrund von Synonymen oder Spammaßnahmen zustande gekommen sind.
Unter Filtering wird die Praxis von Suchmaschinen verstanden bestimmte Einträge aus den Suchergebnissen herauszufiltern.
Flash ist eine Kurzform von Adobe Flash. Durch diese Technologie lassen sich komplexe Grafiken und Animationen erzeugen. Zudem können Spiele und Filme auf Webseiten realisiert werden.
Eine Erfassung aller Webseiten im Internet ist für Suchmaschinen unmöglich. Focused Crawling unterstützt die Suchmaschinen indem geprüft wird wie aktuell die Webseiten sind bzw. wie häufig sie aktualisiert werden.
Diese Links befinden sich in der Fußzeile einer Webseite. Sie dienen als Verknüpfung zwischen verschiedenen Seiten denen Spider folgen.
Frames sind eine von Netscape entwickelte Technologie. Diese ermöglicht es eine Webseite in verschiedene Bereiche aufzuteilen. Eine Menüleiste beispielsweise muss dadurch nur einmal geladen werden und verschwindet beim runterscrollen nicht. Im Bereich SEO muss darauf geachtet werden, dass auch Noframes-Bereiche berücksichtigt werden.
Neue Webseiten erscheinen sehr schnell in Suchmaschinen. Dabei werden allerdings nur der Titel und die Beschreibung angegeben. Grund dafür sind die “Fresh Crawls“ durch welche zunächst nur die oberflächlichen Daten erfasst werden.
Automatisch oder manuell eingetragene Gästebucheinträge mit Werbung zum Inhalt. Ziel ist die Verbesserung der Linkpopularität.
Die Google Adwords sind Cost-per-Click Anzeigen, die im rechten Bereich einer Googlesuche platziert sind. Durch die Auswahl von effizienten Keywords erscheinen die Anzeigen lediglich bei relevanten Suchanfragen.
Google Analytics ist ein kostenloser Dienst durch welchen sich die Benutzerstruktur analysieren lässt. Durch zahlreiche statische Auswertungen erfährt der Webseitenbetreiber woher seine Besucher kommen und wie lange sie auf der Webseite verbleiben.
Ein Update im kleineren oder größeren Stil am Google Suchalgorithmus. Die wichtigsten und größten Google Updates im Wiki.
Auf Google Base können kostenlos allerlei Informationen veröffentlicht werden.
Die sogenannten Googlebomben sind gezielte Versuche Suchmaschinen zu manipulieren. Bei einer Suche werden auf der Ergebnisseite nicht themenrelevante Ergebnisse angezeigt. Dies ist möglich durch das Verlinken von externen Links mit zugehöriger gefälschter Beschreibung.
Unternehmen versuchen ihre Konkurrenz aus Suchmaschinen “herauszukegeln“ indem sie die Webseiten in nicht zulässige Linklisten eintragen. Obwohl der Webseitenbetreiber nichts mit diesen Verstößen zu tun hat, werden die Webseiten aus den Suchmaschinen gelöscht.
Früher der Begriff für das regelmäßige Index-Update. Heutzutage befindet sich Google in einem “Dauer-Dance“.
Eine Plattform, die verschiedene Dienste, von Google für Unternehmen bündelt, sodass diese sich besser präsentieren könnten.
Die Ergebnisse auf der Ergebnisseite bei einer bestimmen Suche wechseln häufig. Ein Phänomen das durch die Fresh Crawl zustande kommt. Dauerhaft platziert werden die Webseiten erst nach dem Google Dance und einem Deep Crawl.
Neuen Webseiten ist es in den ersten Monaten nicht möglich ein gutes Rank zu erreichen, sie verbleiben zunächst im “Sandkasten“. Ziel ist die Blockade von kurzfristigen Spamseiten. Der Nachteil macht sich in der Suchmaschinenoptimierung bemerkbar, denn ein gutes Ranking ist dadurch mit viel Zeit und Geduld verbunden.
Symbolleiste für Internet-Browser. Besonders Interessant für SEO, da der PageRank angezeigt wird.
WebCrawler von Google. Neue Webseiten werden gefunden und Anzeigen bestehender Webseiten aktualisiert. Zudem werden Manipulationsversuche ausfindig gemacht.
Eine Auszeichnung mit Koordinaten.
Eine Hallway Page wird erstellt, um Links auf Doorway Pages () dort zu platzieren. Ein Bot, der diese Hallway Page besucht, wird alle Links verfolgen und die Doorway Pages indizieren.
Bezeichnet den Teil des HTML-Codes, der die Meta-Tags enthält.
Headline lässt sich mit Überschrift übersetzen. Dieser Teil der Webseite hebt sich optisch vom Rest ab. Außerdem werden die Keywords die dort untergebracht werden stärker von Suchmaschinen gewichtet als andere.
Diese Texte sind für die Besucher der Webseiten nicht sichtbar sondern nur für Bots, z.B. durch die gleiche Farbe der Texte oder der Hintergrundfarbe. Ziel ist das Unterbringen von Keywords was unter den Begriff “Spam“ fällt.
Unter Hijacking ist das Aneignen fremder Inhalte zu verstehen. Es wird unterschieden in Domain-Hijacking, Content-Hijacking und das Vortäuschen eines hohen Page Ranks.
Der Hilltop-Algorithmus ermöglicht es die Relevanz einer Webseite in Bezug auf entsprechende Keywords festzustellen.
Beim Webhosting werden auf einem Webserver Speicherplatz und Funktionen für Webseiten, Anwendungen und andere Dienste bereitgestellt.
Darstellung von Medien und Inhalten die sich auf einem fremden Server befinden, z.B. Videoclips.
Computersprache zur Erstellung von Webseiten.
Protokoll zur Kommunikation zwischen Webserver und Client.
Hubs sind Webseiten auf denen sich viele Outbound Links befinden. Es wird somit von einer Webseite auf viele andere verlinkt.
Das Hummingbird Update ermöglichte Google einzelne Wörter von zusammenhängenden Wörtern zu unterscheiden.
Internet Assigened Numbers Authority - Globale Organisation für die Verwaltung von IP-Adressen und Domain-Namen. In den USA ist die Unterabteilung ICANN (Internet Corporation for Assigned Names and Numbers) ansässig.
Inline Frames ermöglichen es in aktuellen Browsern fremde Webseiten, z.B. für Werbemaßnahmen einzubetten ohne dass diese im Quellcode vermerkt werden.
Grafiken auf denen anklickbare Flächen zur Weiterleitung auf einen anderen Inhalt dienen.
Hereinführender Link, auch bekannt als
Datenbestand an Domains einer Suchmaschine.
Zentrale Aufgabe von Suchmaschinen bestehend aus der Aufbereitung, Speicherung und Wiedergewinnung von Daten.
Anstatt einige Wochen zu warten, werden Webseiten von manchen Suchmaschinen sofort indexiert. Dabei werden zunächst nur oberflächliche Daten erfasst.
Phänome einer erhöhten Relevanz in Suchmaschinen durch interne Verlinkungen.
Auch Umlautdomain oder Sonderzeichendomain sind Domains mit nicht lateinischen Buchstaben.
Jeder Server verfügt über eine eigene Nummer bzw. Adresse. Diese dienen der Zuordnung der einzelnen Internetznutzer.
Eine von Netscape entwickelte clientseitige Script-Sprache. Sie ist nützlich bei der Erstellung von Webseite, da sie gut in HTML-Dokumente eingebunden werden kann.
Serverseitige Skriptsprache zur Realisierung dynamischer Webseiten.
Die Suchbegriffsdichte ist für die Relevanz von Webseiten von Bedeutung. Suchmaschinen orientieren sich an der Häufigkeit von bestimmten Keywords in einem Text.
Absolute Worthäufigkeit auf einer Webseite.
Position des Keywords innerhalb einer Webseite. Keywords im Titel werden beispielsweise eine höhere Relevanz zugesprochen.
Distanz zwischen zwei Keywords. Siehe auch: Adjaceny
Keywords werden bei dieser Maßnahme auf einer Webseite häufig platziert; mit dem einzigen Zweck Suchmaschinen zu manipulieren.
Die Nutzer der Suchmaschinen benutzen verschiedene Suchbegriffe und Suchbegriffskombinationen um ihr erwünschtes Ergebnis zu erreichen. Eine Keyword-Recherche kann durch Keyword-Tools und einer Konkurrenzanalyse erfolgreich umgesetzt werden.
Durch Keyword-Tools ist es Nutzern möglich die tatsächliche Häufigkeit der eingegeben Suchbegriffe zu ermitteln.
Webseite, die auf bestimmte Suchbegriffe hin optimiert wurde. Ziel ist eine gute Ranking Position.
Elemente, die durch Rahmenkonstruktionen auf verschiedenen Ebenen frei positionierbar sind.
Lead bezeichnet eine Handlung die die Gewinnung von Neukunden beschreibt. Je nach Unternehmen können diese Handlungen verschiedene Formen annehmen, z.B. das Abonnieren eines Newsletter oder der Kauf eines Produkts.
Ob Verknüpfungsstärke, Google Juice oder Linksaft genannt, gibt dieser die Stärke eines Links an, welche weitergegeben werden kann.
Zwei oder mehr Webseitenbetreibern verlinken einander. Es wird zwischen Reziproken und nicht reziproken Tausch unterschieden. Beispiel für einen reziproken Tausch: Seite A zu Seite B, B zu Seite C und C leitet auf Seite A weiter.
Linklisten mit dem einzigen Ziel die Link Popularity zu erhöhen.
Die Linkpopularität beschreibt wie jeder eingehende Link eine Empfehlung der jeweiligen Seite darstellt. Jeder externe Link erzielt eine verbesserte Position in Suchmaschinen.
Verabredete gegenseitige Unterbringung von Backlinks auf der eigenen Webseite.
Spam-Maßnahme, bei welcher die Logfiles von Webseiten mit hoher Linkpopularität manipuliert werden. Es werden möglichst viele Hits verursacht um hochwertige Backlinks zu gewinnen.
Protokoll eines Webservers welches der Erfolgskontrolle dient. Dieses beinhaltet die abgerufenen Webseiten, den Zeitpunkt des Zugriffs und die IP-Adresse.
Befinden sich im “Head-“Bereich eines HTML-Dokuments. Für den normalen Besucher der Seite sind diese nicht sichtbar; für Suchmaschinen können die Meta-Tags im Bereich der Keywords relevant sein.
Modul für den Apache Server zum umschreiben von URLS.
Eine Anweisung im Quellcode für Crawler (https://www.sumasearch.de/seo-glossar auf Googlebots). dem Link nicht zu folgen. Wurde von Google eingeführt um Linkspam zu verhindern.n
Wichtige Keywords und Texte sollten in Noframes-Bereichen abgelegt werden, dies dient der Suchmaschinenfreundlichkeit.
Ständiges Anmelden bei Suchmaschinen.
Das wohl größte Verzeichnis an Webseiten. Die Eintragung ist völlig kostenlos und bietet sich für jede Art von Webseite an.
Optimierung der externen Verlinkung. Verbesserung der Linkpopularität.
Optimierung des Inhalts und der Struktur einer Webseite. Ziel ist eine verbesserte Platzierung in Suchmaschinen.
Bestrafung seitens Goolge für zu umfangreich optimierte Webseiten.
Die Ergebnisseiten der Suchmaschinen bestehen aus einem organischen Index und einem Paid Index. Bei Google besteht der Paid Index aus den Google AdWords auf der rechten Seite und in den ersten drei Ergebnisseiten des linken Bereichs. Die darunter folgenden Ergebnisse werden als organischer Index bezeichnet.
Webseiten ohne Inbound Links.
Herausführende Links von einer Webseite zu einer anderen.
Anzahl der Webseitenaufrufe. Mehrere Besuche durch den gleichen Nutzer werden allerdings auch mehrfach gezählt.
Kopieren von Inhalten einer fremden Webseite.
Das Google Panda Update straft Webseiten mit schlechter Qualität und wenig Inhalt ab.
Durch das Google Penguin Update wurden Seiten bestraft, welche unlautere Optimierungen nutzten.
Das Phantom Update wurde von Google lange bestritten. Es belohnte Seiten mit gutem Inhalt.
Der von Google entwickelte PageRank wird anhand der Inbound Links () bestimmt und gibt somit einen Wert für die Linkpopularität an.
Mit das wichtigste Bewertungskriterium für Google. Auch wenn es nur indirekt wirkt. Braucht eine Seite zu lange zum Laden, verlässt der Nutzer die Seite direkt wieder und Google stuft die Seite schlechter ein.
Bezeichnet die Aufnahme in den Datenbestand einer Suchmaschine gegen Bezahlung.
Die bezahlte Unterbringung einer Webseite auf einer bestimmten Position in Suchmaschinen.
Gleiches Verfahren wie beim <>Paid Placement () mit dem Unterschied, dass die Anzeigen nicht gekennzeichnet werden.
Kostenpflichte Anmeldung von Webseiten in Verzeichnissen, z.B. Webkataloge.
Es wird ein festgelegter Preis pro Klick auf die Anzeige bezahlt. Desto mehr der Betreiber zu zahlen bereit ist, desto besser wird die Anzeige positioniert.
Es wird ein Preis bezahlt sobald eine Werbemaßnahme zu einem erfolgreichen “Lead“ führt.
Es wird ein Preis bzw. eine Provision je erfolgreichem Verkauf eines Produkts bezahlt.
Es wird ein Preis für eine bestimme Anzahl an Nutzern bezahlt welche eine Werbeform zu Gesicht bekommt.
Serverseitige Scriptsprache auf Open-Source-Basis.
Standardprogramm, das dazu dient die Erreichbarkeit von Rechnern oder Netzwerken zu überprüfen.
Ein Portal ist eine Webseite, über welche weitere Webseiten erreicht werden können. Zudem werden dort verschiedene Dienste angeboten wie E-Mail-Dienste, News und Musik (z.B. Yahoo).
Systematische Beobachtung und Auswertung sämtlicher Maßnahmen, die zur Optimierung des Rankings einer Internetseite vorgenommen wurden.
Die Qualität der Suchmaschinenergebnisse ist u.a. von der Präzision abhängig. Eine hohe Präzision zeigt auf, dass ein Ergebnis für eine Suchanfrage relevant ist.
Dienstleister, der den Zugang zum World Wide Web ermöglicht. Bekannte Internetanbieter sind AOL und T-Online.
Proxy-Server dienen dem Zwischenspeichern von Webseiten. Soll eine Webseite die schon einmal aufgerufen wurde erneut aufgerufen werden, kann die Version aus dem Cache schneller geladen werden als die aktuelle aus dem Internet.
Programm-Code einer Software welcher für Menschen lesbar ist.
Englischer Begriff für die Anfrage an eine Suchmaschine.
Ein KI ähnlicher Algorithmus der selbstständig lernt und für Google alle Suchanfragen beantwortet.
Bezeichnet die Qualität von Suchmaschinenergebnissen. Ein hoher Recall bedeutet, dass ein Großteil der gefundenen Ergebnisse eine Suchanfrage befriedigt.
Beobachtungen zu Folge werden neue Webseiten zunächst erstaunlich gut in Suchmaschinen positioniert, fallen aber in den nächsten Monaten weit zurück.
Wiederaufnahme einer Webseite in den Index einer Suchmaschine nachdem sie z.B. aufgrund einer Abstrafung daraus entfernt wurde.
Automatische Weiterleitung von einer Webseite auf eine andere.
Mehrfaches Vorhandensein von Informationen innerhalb eines Datenbestands.
Die zuletzt besuchte Seite wird an die neu besuchte weitergegeben, um die Herkunft des Besuchers zu bestimmen. Dies ist möglich durch die Logfiles.
Im Bereich SEO bezeichnet dieser Begriff die Popularität von Suchmaschinen.
Webseitenadresse ohne die Angabe des Domainnamens.
Es handelt sich um eine Textdatei welche im Hauptverzeichnis einer Webseite eingetragen wird. Diese soll Spider davon abhalten bestimmte Unterseiten, Dateien oder Ordner zu indexieren.
Stammverzeichnis
Suchmaschinen-Ergebnisseite
Servererweiterungen die es ermöglichen Webseiten dynamisch zu generieren.
Mit der Session ID wird der Vorgang eines Nutzers auf einer Webseite durch den Webserver genau zugeordnet.
Bei einem populären Suchbegriff tauchen unterhalb des erstplatzierten Ergebnisses in Google-Verlinkungen auch Unterseiten der Webseite auf, die sogenannten Sitelinks.
Beim clustern wird thematisch gleicher Content sinnvoller strukturiert. So wird das Ranking bei Google verbessert.
Dieser Begriff bezeichnet das langsame Verschwinden von Webseiten aus dem Index einer Suchmaschine.
Häufiger in Amerika im gebrauch ist eine STLD eine Top-Level-Domain die eine bestimmte Art von Internet Seite angibt. Die häufigste STLD ist „.gov“ und gibt die Endung von Seiten der amerikanischen Regierung an.
Spider die das Internet durchforschen mit dem Ziel Spam-Maßnahmen umzusetzen.
Suchmaschinen bieten ihren Nutzern an Spamwebseiten zu melden. Dies ist möglich mit dem sogenannten Spam-Report.
Programme, die sich kontinuierlich durch das Internet bewegen und dabei Informationen aufnehmen.
Eine Homepage einer Webseite die nur aus Grafiken und Animationen besteht.
Beschreibt die Verschleierung der Identität im Internet indem beispielsweise eine fremde IP-Adresse verwendet wird.
Die Sitemap bildet eine Art Inhaltsverzeichnis für Webseiten und deren Unterseiten.
Zu Deutsch: Bildung von Wortstämmen. Auf diese Weise soll die Anzahl der Suchergebnisse maximiert werden.
Ausdrücke, die keinen eigenen Informationsgehalt tragen und von den meisten Suchmaschinen ignorieren werden. Beispiele für diese Stop Words sind der, die, das, und, oder.
Syntax beschreibt die Schreibweise von Eingaben in eine Suchmaske. Jede Suchmaschine hat ihre eigene Syntax. Siehe auch: Boolsche Operation ()
Zielgruppengerechte Inhalte.
Liste in binärer Form, welche alle Worte einer Webseite beinhaltet. Diese Liste dient der Keyword-Analyse sowie der Ermittlung von Spam-Maßnahmen.
Bezeichnet den Versuch von Suchmaschinen das Thema einer Webseite zu ermitteln.
Eine Auszeichnung die Überschriften kennzeichnet.
Ein Algorithmus der zu gegeben Keywords passende Synonyme vorschlägt.
Tracking bezeichnet die Verfolgung von Nutzerbewegungen im Internet.
Bezeichnet das Abrufen von Dateien und Webseiten von einem Webserver im Internet.
Letzter Teilbereich einer Internetadresse. Häufig als Country-Code TLDs wie “.de” oder “.com”. Ist der höchste Ebene der Namensaufschlüsselung einer Domain.
Beim Trust Rank handelt es sich um eine Qualitätskontrolle von Webseiten die von Suchmaschinen durchgeführt wird.
Gesamtzahl der Besucher wobei jeder einzelner Besucher nur einmal gezählt wird.
Internetadresse
User Agents sind Programme, welche automatisierte Datenabfragen bei Suchmaschinen durchführen.
Auf einem virtuellen Server werden mehrere Webseiten gehostet. Das bedeutet die Webseiten teilen sich diesen Server.
Prüfung einer Webseite anhand der W3C-Konformen. () Ziel ist ein korrekter HTML-Code.
Bei einem Visit handelt sich um einen Besuch der Webseite; ein Nutzer kann allerdings mehrere Visits auslösen.
Dabei wird der komplette Text, also auch die Stop-Words, indiziert.
Organisation, die seit 1994 Internet-Standards entwickelt und überwacht.
Internet-Archiv, durch das die Ansicht von gespeicherten Webseiten seit 1996 möglich ist.
Auf einem Webserver verfügbarer Speicherplatz für Webseiten.
Suchmaschinenoptimierung, bei der alle Richtlinien eingehalten werden und die Vorgehensweisen völlig legal sind.
Internetdienst, durch den Informationen über den Inhaber einer Domain abgerufen werden können.
Extensible Hypertext Markup Language - Eine auf XML () basierende erweiterbare Beschreibungssprache für Internetseiten.
Extensible Markup Language - Medienübergreifende Seitenbeschreibungssprache bei welcher Layout und Inhalt getrennt werden können.
Kostenlose SEO Analyse & Beratung
Fordern Sie schnell und unkompliziert ein Angebot für die Optimierung Ihrer Webseite.