- Mitglied seit
- 11.11.2010
- Beiträge
- 204
- Punkte für Reaktionen
- 8
- Punkte
- 38
- Alter
- 65
- Website
- www.iks-info.narod2.ru
Entschuldigung, der Beitrag wurde von Specials verfasst und ist daher für einen einfachen Benutzer etwas kompliziert ...
Aber nicht weniger interessant ... ich denke schon ...
Ferner der Text des Autors ...
Beweise
Mit der Sofortvorschau-Funktion werden in SERP Annotations-Screenshots angezeigt. Diese Vorschauen bieten eine beeindruckende Gelegenheit: Sie zeigen nicht nur einen Screenshot der Seite an, sondern heben den Text, der zu Ihrer Anfrage passt, auch visuell hervor und unterstreichen ihn. Dies ist mit einer einfachen Textspinne einfach nicht zu erreichen. Screenshots von Flash-Seiten - Möglicherweise haben Sie bereits Screenshots von Flash-Websites in den Google Webmaster-Tools bemerkt. Warten Sie ... Ich dachte, Google hat den Flash nicht gesehen ... Bestätigung der AJAX POST-Anfrage - Matt Cutts bestätigte, dass GoogleBot AJAX POST-Anfragen verarbeiten kann, und dies geschah zufällig einige Stunden, nachdem Rand den Artikel veröffentlicht hatte. GoogleBot ist Chrome. " Per Definition ist AJAX JavaScript-geladener Inhalt, wenn nach dem Laden der Seite eine Aktion ausgeführt wird. Daher kann es nicht mit einer Textspinne verfolgt werden, da die Textspinne kein JavaScript ausführt, sondern nur den vorhandenen Code empfängt, der beim ersten Download bereitgestellt wurde. Google verfolgt Flash - Matt Clayton zeigte mir auch einige Serverprotokolle, in denen GoogleBot auf URLs zugegriffen hat, auf die nur über die integrierten Flash-Module auf Mixcloud.com zugegriffen werden kann: 66.249.71.130 "13 / Nov / 2011: 11: 55: 41 + 0000 GET / config /? W = 300 & h = 300 & js = 1 & embedded_type = widget_standard & feed = http% 3A // www.mixcloud.com / chrisreadsubstance / bbe-mixtape-wettbewerbs-2010.json & tk = TlVMTA HTTP / 1.1 200 695 - Mozilla / 5.0 (kompatibel; Googlebot / 2.1; + http: //www.google.com/bot.html) 66.249.71.116 13 / Nov / 2011: 11: 51: 14 +0000 GET / config /?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP / 1.1 "200 694" - "" Mozilla / 5.0 ( kompatibel; Googlebot / 2.1; + http: //www.google.com/bot.html) Nehmen wir an, dies sind keine Neuigkeiten, aber ein anderer Beitrag aus dem Jahr 2008 erklärt, dass Google „Flash-Dateien genauso behandelt wie sie eine Person durch Eingabe von Daten und so weiter. “Und Sie meinen, wie arbeitet eine Person mit einem Browser? Website - Obwohl Google die Ladezeit der Website über die Symbolleiste und die Nutzungsdaten von Chrome abrufen kann, ist es für ihn viel zuverlässiger, diese Informationen durch Indizieren des Netzwerks selbst abzurufen. Ohne die Ausführung des gesamten Seitencodes ist es fast unmöglich, die Ladezeit dieser Seite genau zu berechnen. Bis jetzt hat sich das alles so angehört, als wäre Google nur ein paar Schritte von SkyNet entfernt. Und Optimierer und Google versichern uns seit vielen Jahren, dass der Suchroboter (Spinne) eine Textbasis hat, sodass dies für Sie fantastisch erscheinen kann. Ich versichere Ihnen, dass dies nicht der Fall ist, und viele der Dinge, über die ich spreche, sind Programmierern auch mit einem viel weniger leistungsstarken Team von Ingenieuren als Google zugänglich. Lernen Sie PhantomJS kennen PhantomJS ist ein kopfloser Webkit-Browser, der über die JavaScript-API gesteuert werden kann. Mit ein wenig Skriptautomatisierung können Sie Ihren Browser ganz einfach in eine Spinne verwandeln. Es ist lustig, dass das Logo ein Geist ist, der den Geistern in Pacman ähnelt, und das Konzept ist recht einfach: PhantomJS wird verwendet, um die Seite so zu laden, wie der Benutzer sie in Firefox, Chrome oder Safari sieht, Materialien zu extrahieren und Links zu verfolgen. PhantomJS verfügt über unzählige Anwendungen zum Parsen von Informationen und anderen Arten der Site-Analyse. Ich rate der SEO-Community, dies zu realisieren, bevor wir fortfahren. Josh hat PhantomJS verwendet, um Beweise für die Informationen vorzubereiten, die ich auf SearchLove gepostet habe. Als ich GoFish veröffentlichte, erwähnte ich bereits, dass ich Schwierigkeiten hatte, Informationen über die Zunahme der Anzahl von Anfragen von Google Insights mithilfe einer Textspinne zu sammeln, da die Liste dieser Fragen über AJAX bereitgestellt wird. Richard Baxter schlug vor, dass diese Daten einfach mit der XPath-Zeichenfolge erfasst werden können, und dies überzeugt mich, dass die importXML-Architektur für die Suche in Google Text & Tabellen auch auf einem kopflosen Browser basiert. Auf dem Diagramm ist rot geschrieben: "Diese Daten können auf übliche Weise nicht abgerufen werden, da es sich um AJAX handelt." Wie auch immer, hier entfernt Josh diese Daten mit PhantomJS von der Seite. Es ist nicht möglich, Screenshots mit einer Textspinne zu machen, aber die Verwendung des Headless-Webkit-Browsers ist so einfach. In diesem Beispiel zeigt Josh, wie Screenshots mit PhantomJS aufgenommen werden. Chromium ist ein öffentlicher Zweig des Webkit-Browsers, und ich bezweifle stark, dass Google den Browser aus rein altruistischen Gründen erstellt hat. Die obige Studie legt nahe, dass GoogleBot ein Headless-Browser mit mehreren Threads ist, der auf demselben Code basiert. Warum erzählen sie uns nichts? Eigentlich sagen sie, behaupten aber, dass der "Roboter-Indexer zum Erstellen von Vorschauen" ein völlig separates Objekt ist. Stellen Sie sich diesen Roboter als "Mrs. Pacman" vor. Ein Mitglied des Hauptforums der Webmaster beschwerte sich, dass sie als Benutzeragent in ihren Protokollen "Mozilla / 5.0 (X11; U; Linux x86_64; en-US) AppleWebKit / 534.14 (KHTML, wie Gecko) Chrome / 9.0.597 Safari / 534.14" anzeigen. und nicht "Mozilla / 5.0 (en-us) AppleWebKit / 525.13 (KHTML, wie Gecko; Google Web Preview) Version / 3.1 Safari / 525.13". John Mu sagte: "Als Tool zum Testen von Sofortvorschauen verwenden wir einen Benutzeragenten, der Chrome ähnelt, damit wir vergleichen können, was der Browser (mithilfe dieses Benutzeragenten) mit dem zwischengespeicherten Zugriff von Googlebot sieht." Vorschau. " Obwohl der kopflose Browser und Googlebot, wie wir wissen, unterschiedlich sind, scheint es mir, dass sie die Seiten immer parallel durchsuchen und Informationen für die Indizierung und das Ranking sammeln. Mit anderen Worten, es ist wie eine simultane Dual-User-Version von Pacman mit Mrs. Pacman in 3D und regulärem Pacman, die zur gleichen Zeit auf demselben Level spielen. Am Ende wäre es für Spinnen nicht sinnvoll, das gesamte Netzwerk zweimal separat zu durchsuchen. Warum ist in Bezug auf diese Möglichkeiten nicht alles so klar, weil sie mit dem Ranking zusammenhängen? Kurz gesagt: Suchqualität. Suchmaschinen, die sich hinter den Fehlern von Textspinnen verstecken, können sie weiterhin als Sündenbock verwenden, um ihre unvollständigen Ergebnisse zu erklären. Sie können sich weiterhin in Richtung Dinge wie den angeblichen AuthorRank bewegen und sich auf SEO verlassen, um ihre Suchmaschinen buchstäblich zu optimieren. Sie können weiterhin vage Dinge sagen, wie "Verfolgen Sie den Algorithmus nicht", "Verbessern Sie die Benutzererfahrung" und "Wir berücksichtigen, was ohne Scrollen sichtbar ist", was SEO-Spezialisten die Arbeit von Google erleichtert. Die Hauptprodukte von Google (und ihre einzigen Produkte, wenn Sie Eric Schmidt vor Gericht fragen) sind Suchanfragen. Wenn Sie Informationen veröffentlichen, deren Funktionen viel höher sind als angegeben, müssen sie die Qualität der Suche verbessern. Sie erzählen uns nichts davon, denn mit wachsenden Chancen wächst auch die Verantwortung. Was bedeutet das für uns? Als Josh und ich unsere Forschungsergebnisse vorstellten, fragten mich viele Leute: "Wie sollte dies meine Handlungen in Bezug auf SEO ändern?" Meiner Meinung nach gibt es drei Punkte: 1. Javascript hilft Ihnen nicht, etwas zu verbergen. Wenn es Ihnen so vorkam, als könnten Sie mit Hilfe des JavaScript-Postloading einige Inhalte verbergen - hören Sie damit auf. Das Locken und Schalten ist jetzt eine zu 100% ineffiziente Methode. Pacman sieht alles. 2. Die Benutzererfahrung ist äußerst wichtig. Google kann Ihre Website jetzt buchstäblich sehen! Wie Matt Cutts sagte, schauen sie sich an, was sich über dem Bildlaufrand befindet, und können daher beim Ranking berücksichtigen, wie viel Werbung auf der Seite präsentiert wird. Google kann Verhaltensdaten zusammen mit dem Website-Design verwenden, um festzustellen, wie nützlich die Website für Personen ist. Dies ist sowohl erfreulich als auch beängstigend, aber es bedeutet auch, dass jeder SEO-Spezialist das Buch Circle of Do Not Make Me Think kaufen sollte. 3. SEO-Tools müssen intelligenter werden. Die meisten SEO-Tools basieren auf Textschabern, und obwohl viele von ihnen recht komplex sind (SEOmoz führt derzeit), sehen sie Pacman in den 80ern immer noch sehr ähnlich. Wenn wir verstehen möchten, was Google beim Ranking von Seiten wirklich berücksichtigt, müssen wir weitere Aspekte berücksichtigen. - Wenn Sie beispielsweise die Seitenautorität und die Wahrscheinlichkeit von Spam diskutieren, müssen Sie die Seiten aus Sicht des Programms visuell überprüfen und dürfen sich nicht auf einfache Indikatoren wie die Verteilungsdichte von Schlüsselwörtern und das Linkdiagramm beschränken. Mit anderen Worten, wir benötigen einen Qualitätsindikator für die Benutzerwahrnehmung (UX Quality Score), der durch visuelle Analyse und mögliche Änderungen an Spam beeinflusst wird. - Sie sollten vergleichen, inwieweit sich die angezeigte Seite von dem unterscheidet, was der Code annehmen kann. Dies kann als Delta Score bezeichnet werden. - Bei der Beurteilung der Verteilung des Anteils von Links auf einer Seite sollte auch die dynamische Transformation (Dinamic-Transformationen) berücksichtigt werden, da Suchmaschinen verstehen können, wie viele Links sich tatsächlich auf der Seite befinden. Dieser Faktor kann auch im Delta Score enthalten sein. - Sie sollten auch die Verarbeitung natürlicher Sprache in unsere Analyse einbeziehen, da dies anscheinend auch vom Google-Algorithmus berücksichtigt wird. Dieser Faktor hat keinen wesentlichen Einfluss auf das Gesamtergebnis, hilft jedoch dabei, die Schlüsselkonzepte zu identifizieren, mit denen die Maschine Inhalte verknüpft, und vollständig zu verstehen, welchen Wert der Link unter Berücksichtigung des gewünschten Ergebnisses hat. Mit anderen Worten ist eine kontextbezogene Analyse des Verknüpfungsgraphen erforderlich. In zwei Punkten stimme ich Matt Kuts zu. Der einzige konstante Parameter ist die Änderung. Wir müssen jedoch auch verstehen, dass Google uns weiterhin falsch über seine Funktionen informiert oder uns zu bestimmten Schlussfolgerungen drängt, an die wir uns dann halten werden. Daher sollten wir verstehen, dass Google für seine Technologie verantwortlich ist. Einfach ausgedrückt, wenn sie genau beweisen können, dass sie nichts tun, sollten sie von diesem Moment an beginnen; Schließlich arbeiten dort einige der talentiertesten Ingenieure der Welt. Google erschwert weiterhin das Suchmaschinenmarketing und storniert Daten, mit denen wir die Nutzererfahrung verbessern können. Fakt ist jedoch, dass wir eine Symbiose haben. Suchmaschinen benötigen SEO-Spezialisten und Webmaster, um das Netzwerk schneller, einfacher und verständlicher zu machen, und wir brauchen Suchmaschinen, um qualitativ hochwertige Inhalte zu fördern und prominentere Positionen einzunehmen. Das Problem ist, dass Google alle Karten in der Hand hat und ich bin froh, dass ich mein Bestes getan habe, um eine davon zu schnappen. Dein Zug, Matt.
https://ne-onn.blog.ru/137298867.html
Aber nicht weniger interessant ... ich denke schon ...
Ferner der Text des Autors ...
Beweise
Mit der Sofortvorschau-Funktion werden in SERP Annotations-Screenshots angezeigt. Diese Vorschauen bieten eine beeindruckende Gelegenheit: Sie zeigen nicht nur einen Screenshot der Seite an, sondern heben den Text, der zu Ihrer Anfrage passt, auch visuell hervor und unterstreichen ihn. Dies ist mit einer einfachen Textspinne einfach nicht zu erreichen. Screenshots von Flash-Seiten - Möglicherweise haben Sie bereits Screenshots von Flash-Websites in den Google Webmaster-Tools bemerkt. Warten Sie ... Ich dachte, Google hat den Flash nicht gesehen ... Bestätigung der AJAX POST-Anfrage - Matt Cutts bestätigte, dass GoogleBot AJAX POST-Anfragen verarbeiten kann, und dies geschah zufällig einige Stunden, nachdem Rand den Artikel veröffentlicht hatte. GoogleBot ist Chrome. " Per Definition ist AJAX JavaScript-geladener Inhalt, wenn nach dem Laden der Seite eine Aktion ausgeführt wird. Daher kann es nicht mit einer Textspinne verfolgt werden, da die Textspinne kein JavaScript ausführt, sondern nur den vorhandenen Code empfängt, der beim ersten Download bereitgestellt wurde. Google verfolgt Flash - Matt Clayton zeigte mir auch einige Serverprotokolle, in denen GoogleBot auf URLs zugegriffen hat, auf die nur über die integrierten Flash-Module auf Mixcloud.com zugegriffen werden kann: 66.249.71.130 "13 / Nov / 2011: 11: 55: 41 + 0000 GET / config /? W = 300 & h = 300 & js = 1 & embedded_type = widget_standard & feed = http% 3A // www.mixcloud.com / chrisreadsubstance / bbe-mixtape-wettbewerbs-2010.json & tk = TlVMTA HTTP / 1.1 200 695 - Mozilla / 5.0 (kompatibel; Googlebot / 2.1; + http: //www.google.com/bot.html) 66.249.71.116 13 / Nov / 2011: 11: 51: 14 +0000 GET / config /?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP / 1.1 "200 694" - "" Mozilla / 5.0 ( kompatibel; Googlebot / 2.1; + http: //www.google.com/bot.html) Nehmen wir an, dies sind keine Neuigkeiten, aber ein anderer Beitrag aus dem Jahr 2008 erklärt, dass Google „Flash-Dateien genauso behandelt wie sie eine Person durch Eingabe von Daten und so weiter. “Und Sie meinen, wie arbeitet eine Person mit einem Browser? Website - Obwohl Google die Ladezeit der Website über die Symbolleiste und die Nutzungsdaten von Chrome abrufen kann, ist es für ihn viel zuverlässiger, diese Informationen durch Indizieren des Netzwerks selbst abzurufen. Ohne die Ausführung des gesamten Seitencodes ist es fast unmöglich, die Ladezeit dieser Seite genau zu berechnen. Bis jetzt hat sich das alles so angehört, als wäre Google nur ein paar Schritte von SkyNet entfernt. Und Optimierer und Google versichern uns seit vielen Jahren, dass der Suchroboter (Spinne) eine Textbasis hat, sodass dies für Sie fantastisch erscheinen kann. Ich versichere Ihnen, dass dies nicht der Fall ist, und viele der Dinge, über die ich spreche, sind Programmierern auch mit einem viel weniger leistungsstarken Team von Ingenieuren als Google zugänglich. Lernen Sie PhantomJS kennen PhantomJS ist ein kopfloser Webkit-Browser, der über die JavaScript-API gesteuert werden kann. Mit ein wenig Skriptautomatisierung können Sie Ihren Browser ganz einfach in eine Spinne verwandeln. Es ist lustig, dass das Logo ein Geist ist, der den Geistern in Pacman ähnelt, und das Konzept ist recht einfach: PhantomJS wird verwendet, um die Seite so zu laden, wie der Benutzer sie in Firefox, Chrome oder Safari sieht, Materialien zu extrahieren und Links zu verfolgen. PhantomJS verfügt über unzählige Anwendungen zum Parsen von Informationen und anderen Arten der Site-Analyse. Ich rate der SEO-Community, dies zu realisieren, bevor wir fortfahren. Josh hat PhantomJS verwendet, um Beweise für die Informationen vorzubereiten, die ich auf SearchLove gepostet habe. Als ich GoFish veröffentlichte, erwähnte ich bereits, dass ich Schwierigkeiten hatte, Informationen über die Zunahme der Anzahl von Anfragen von Google Insights mithilfe einer Textspinne zu sammeln, da die Liste dieser Fragen über AJAX bereitgestellt wird. Richard Baxter schlug vor, dass diese Daten einfach mit der XPath-Zeichenfolge erfasst werden können, und dies überzeugt mich, dass die importXML-Architektur für die Suche in Google Text & Tabellen auch auf einem kopflosen Browser basiert. Auf dem Diagramm ist rot geschrieben: "Diese Daten können auf übliche Weise nicht abgerufen werden, da es sich um AJAX handelt." Wie auch immer, hier entfernt Josh diese Daten mit PhantomJS von der Seite. Es ist nicht möglich, Screenshots mit einer Textspinne zu machen, aber die Verwendung des Headless-Webkit-Browsers ist so einfach. In diesem Beispiel zeigt Josh, wie Screenshots mit PhantomJS aufgenommen werden. Chromium ist ein öffentlicher Zweig des Webkit-Browsers, und ich bezweifle stark, dass Google den Browser aus rein altruistischen Gründen erstellt hat. Die obige Studie legt nahe, dass GoogleBot ein Headless-Browser mit mehreren Threads ist, der auf demselben Code basiert. Warum erzählen sie uns nichts? Eigentlich sagen sie, behaupten aber, dass der "Roboter-Indexer zum Erstellen von Vorschauen" ein völlig separates Objekt ist. Stellen Sie sich diesen Roboter als "Mrs. Pacman" vor. Ein Mitglied des Hauptforums der Webmaster beschwerte sich, dass sie als Benutzeragent in ihren Protokollen "Mozilla / 5.0 (X11; U; Linux x86_64; en-US) AppleWebKit / 534.14 (KHTML, wie Gecko) Chrome / 9.0.597 Safari / 534.14" anzeigen. und nicht "Mozilla / 5.0 (en-us) AppleWebKit / 525.13 (KHTML, wie Gecko; Google Web Preview) Version / 3.1 Safari / 525.13". John Mu sagte: "Als Tool zum Testen von Sofortvorschauen verwenden wir einen Benutzeragenten, der Chrome ähnelt, damit wir vergleichen können, was der Browser (mithilfe dieses Benutzeragenten) mit dem zwischengespeicherten Zugriff von Googlebot sieht." Vorschau. " Obwohl der kopflose Browser und Googlebot, wie wir wissen, unterschiedlich sind, scheint es mir, dass sie die Seiten immer parallel durchsuchen und Informationen für die Indizierung und das Ranking sammeln. Mit anderen Worten, es ist wie eine simultane Dual-User-Version von Pacman mit Mrs. Pacman in 3D und regulärem Pacman, die zur gleichen Zeit auf demselben Level spielen. Am Ende wäre es für Spinnen nicht sinnvoll, das gesamte Netzwerk zweimal separat zu durchsuchen. Warum ist in Bezug auf diese Möglichkeiten nicht alles so klar, weil sie mit dem Ranking zusammenhängen? Kurz gesagt: Suchqualität. Suchmaschinen, die sich hinter den Fehlern von Textspinnen verstecken, können sie weiterhin als Sündenbock verwenden, um ihre unvollständigen Ergebnisse zu erklären. Sie können sich weiterhin in Richtung Dinge wie den angeblichen AuthorRank bewegen und sich auf SEO verlassen, um ihre Suchmaschinen buchstäblich zu optimieren. Sie können weiterhin vage Dinge sagen, wie "Verfolgen Sie den Algorithmus nicht", "Verbessern Sie die Benutzererfahrung" und "Wir berücksichtigen, was ohne Scrollen sichtbar ist", was SEO-Spezialisten die Arbeit von Google erleichtert. Die Hauptprodukte von Google (und ihre einzigen Produkte, wenn Sie Eric Schmidt vor Gericht fragen) sind Suchanfragen. Wenn Sie Informationen veröffentlichen, deren Funktionen viel höher sind als angegeben, müssen sie die Qualität der Suche verbessern. Sie erzählen uns nichts davon, denn mit wachsenden Chancen wächst auch die Verantwortung. Was bedeutet das für uns? Als Josh und ich unsere Forschungsergebnisse vorstellten, fragten mich viele Leute: "Wie sollte dies meine Handlungen in Bezug auf SEO ändern?" Meiner Meinung nach gibt es drei Punkte: 1. Javascript hilft Ihnen nicht, etwas zu verbergen. Wenn es Ihnen so vorkam, als könnten Sie mit Hilfe des JavaScript-Postloading einige Inhalte verbergen - hören Sie damit auf. Das Locken und Schalten ist jetzt eine zu 100% ineffiziente Methode. Pacman sieht alles. 2. Die Benutzererfahrung ist äußerst wichtig. Google kann Ihre Website jetzt buchstäblich sehen! Wie Matt Cutts sagte, schauen sie sich an, was sich über dem Bildlaufrand befindet, und können daher beim Ranking berücksichtigen, wie viel Werbung auf der Seite präsentiert wird. Google kann Verhaltensdaten zusammen mit dem Website-Design verwenden, um festzustellen, wie nützlich die Website für Personen ist. Dies ist sowohl erfreulich als auch beängstigend, aber es bedeutet auch, dass jeder SEO-Spezialist das Buch Circle of Do Not Make Me Think kaufen sollte. 3. SEO-Tools müssen intelligenter werden. Die meisten SEO-Tools basieren auf Textschabern, und obwohl viele von ihnen recht komplex sind (SEOmoz führt derzeit), sehen sie Pacman in den 80ern immer noch sehr ähnlich. Wenn wir verstehen möchten, was Google beim Ranking von Seiten wirklich berücksichtigt, müssen wir weitere Aspekte berücksichtigen. - Wenn Sie beispielsweise die Seitenautorität und die Wahrscheinlichkeit von Spam diskutieren, müssen Sie die Seiten aus Sicht des Programms visuell überprüfen und dürfen sich nicht auf einfache Indikatoren wie die Verteilungsdichte von Schlüsselwörtern und das Linkdiagramm beschränken. Mit anderen Worten, wir benötigen einen Qualitätsindikator für die Benutzerwahrnehmung (UX Quality Score), der durch visuelle Analyse und mögliche Änderungen an Spam beeinflusst wird. - Sie sollten vergleichen, inwieweit sich die angezeigte Seite von dem unterscheidet, was der Code annehmen kann. Dies kann als Delta Score bezeichnet werden. - Bei der Beurteilung der Verteilung des Anteils von Links auf einer Seite sollte auch die dynamische Transformation (Dinamic-Transformationen) berücksichtigt werden, da Suchmaschinen verstehen können, wie viele Links sich tatsächlich auf der Seite befinden. Dieser Faktor kann auch im Delta Score enthalten sein. - Sie sollten auch die Verarbeitung natürlicher Sprache in unsere Analyse einbeziehen, da dies anscheinend auch vom Google-Algorithmus berücksichtigt wird. Dieser Faktor hat keinen wesentlichen Einfluss auf das Gesamtergebnis, hilft jedoch dabei, die Schlüsselkonzepte zu identifizieren, mit denen die Maschine Inhalte verknüpft, und vollständig zu verstehen, welchen Wert der Link unter Berücksichtigung des gewünschten Ergebnisses hat. Mit anderen Worten ist eine kontextbezogene Analyse des Verknüpfungsgraphen erforderlich. In zwei Punkten stimme ich Matt Kuts zu. Der einzige konstante Parameter ist die Änderung. Wir müssen jedoch auch verstehen, dass Google uns weiterhin falsch über seine Funktionen informiert oder uns zu bestimmten Schlussfolgerungen drängt, an die wir uns dann halten werden. Daher sollten wir verstehen, dass Google für seine Technologie verantwortlich ist. Einfach ausgedrückt, wenn sie genau beweisen können, dass sie nichts tun, sollten sie von diesem Moment an beginnen; Schließlich arbeiten dort einige der talentiertesten Ingenieure der Welt. Google erschwert weiterhin das Suchmaschinenmarketing und storniert Daten, mit denen wir die Nutzererfahrung verbessern können. Fakt ist jedoch, dass wir eine Symbiose haben. Suchmaschinen benötigen SEO-Spezialisten und Webmaster, um das Netzwerk schneller, einfacher und verständlicher zu machen, und wir brauchen Suchmaschinen, um qualitativ hochwertige Inhalte zu fördern und prominentere Positionen einzunehmen. Das Problem ist, dass Google alle Karten in der Hand hat und ich bin froh, dass ich mein Bestes getan habe, um eine davon zu schnappen. Dein Zug, Matt.
https://ne-onn.blog.ru/137298867.html
Original message
Извините пост писал спец и поэтому простому юзеру будет несколько сложновато...
Но не менее интересно... Мне так кажется...
Далее текст автора...
Доказательства
Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком. Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш... Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке. Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com: 66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)" 66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером? Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы. До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google. Знакомьтесь – PhantomJS PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше. Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove. Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser. На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX». Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS. Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS. Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода. Почему нам ничего не говорят? Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman». Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13". Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью». В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности. Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google. Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность. Что это означает для нас? Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента: 1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все. 2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать». 3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов. - При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама. - Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score). - При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score). - Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок. В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете. Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них. Твой ход, Мэтт.
https://ne-onn.blog.ru/137298867.html
Но не менее интересно... Мне так кажется...
Далее текст автора...
Доказательства
Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком. Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш... Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке. Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com: 66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)" 66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером? Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы. До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google. Знакомьтесь – PhantomJS PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше. Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove. Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser. На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX». Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS. Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS. Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода. Почему нам ничего не говорят? Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman». Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13". Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью». В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности. Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google. Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность. Что это означает для нас? Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента: 1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все. 2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать». 3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов. - При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама. - Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score). - При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score). - Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок. В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете. Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них. Твой ход, Мэтт.
https://ne-onn.blog.ru/137298867.html