- Inscrit
- 11 Nov. 2010
- messages
- 204
- Score de réaction
- 8
- Points
- 38
- Age
- 65
- Localisation
- Украина, Кривой Рог. +380 98 720 3431; +380 93 743
- Site web
- www.iks-info.narod2.ru
Désolé, le post a été écrit par des spéciaux et donc ce sera un peu compliqué pour un simple utilisateur ...
Mais pas moins intéressant ... je pense que oui ...
De plus, le texte de l’auteur ...
Preuve
La fonction d'aperçu instantané est la raison pour laquelle nous voyons des captures d'écran d'annotations dans SERP. Ces aperçus ont une opportunité impressionnante: ils affichent non seulement une capture d'écran de la page, mais mettent également en évidence et soulignent visuellement le texte qui convient à votre demande. Ce n'est tout simplement pas possible avec une simple araignée de texte. Captures d'écran de pages flash - vous avez peut-être déjà remarqué des captures d'écran de sites flash dans les outils Google pour les webmasters. Attendez ... Je pensais que Google n'a pas vu le flash ... Confirmation de la demande AJAX POST - Matt Cutts a confirmé que GoogleBot peut gérer les demandes AJAX POST, et, par hasard, cela s'est produit quelques heures après que Rand a posté l'article " GoogleBot est Chrome. " Par définition, AJAX est un contenu chargé en JavaScript lorsqu'une action se produit après le chargement de la page. Par conséquent, il ne peut pas être suivi avec une araignée de texte, car l'araignée de texte n'exécute pas JavaScript, mais reçoit uniquement le code existant tel que fourni lors du téléchargement initial. Google suit Flash - Matt Clayton m'a également montré quelques journaux de serveur dans lesquels GoogleBot accédait à des URL qui ne sont accessibles que via les modules Flash intégrés sur Mixcloud.com: 66.249.71.130 "13 / Nov / 2011: 11: 55: 41 + 0000 "" GET / config /? W = 300 & h = 300 & js = 1 & embed_type = widget_standard & feed = http% 3A // www.mixcloud.com / chrisreadsubstance / bbe-mixtape-competition-2010.json & tk = TlVMTA HTTP / 1.1 "200 695" - - "" Mozilla / 5.0 (compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) "66.249.71.116" 13 / nov / 2011: 11: 51: 14 +0000 "" GET / config /?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP / 1.1 "200 694" - "" Mozilla / 5.0 ( compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) Disons que ce n'est pas une nouvelle, mais un autre article de 2008 explique que Google «traite les fichiers Flash de la même manière qu'ils le feraient une personne en saisissant des données, etc. ». Et, vous voulez dire, comment une personne fonctionne-t-elle avec un navigateur? Site - Bien que Google puisse obtenir le temps de chargement du site Web à partir de la barre d'outils et les données d'utilisation de Chrome, il est beaucoup plus fiable d'obtenir ces informations en indexant le réseau lui-même. Sans exécuter tout le code de la page, il est presque impossible de calculer avec précision le temps de chargement de cette page. Jusqu'à présent, tout cela pouvait sembler comme si Google n'était qu'à quelques pas de SkyNet. Et les optimiseurs et Google nous assurent depuis de nombreuses années que le robot de recherche (araignée) a une base textuelle, cela peut donc vous sembler fantastique. Je vous assure que ce n'est pas le cas, et la plupart des choses dont je parle sont accessibles aux programmeurs, même avec une équipe d'ingénieurs beaucoup moins puissante que Google. Découvrez PhantomJS PhantomJS est un navigateur Webkit sans tête qui peut être contrôlé via l'API JavaScript. Avec une petite automatisation de script, vous pouvez facilement transformer votre navigateur en araignée. C'est drôle que son logo soit un fantôme similaire aux fantômes de Pacman, et le concept est assez simple: PhantomJS est utilisé pour charger la page telle que l'utilisateur la voit dans Firefox, Chrome ou Safari, extraire des matériaux et suivre les liens. PhantomJS a d'innombrables applications pour analyser les informations et d'autres types d'analyse de site, et je conseille à la communauté SEO de s'en rendre compte avant de passer à autre chose. Josh a utilisé PhantomJS pour préparer des preuves pour les informations que j'ai publiées sur SearchLove. Plus tôt, lorsque j'ai publié GoFish, j'ai déjà mentionné que j'avais du mal à collecter des informations sur la croissance du nombre de demandes de Google Insights à l'aide d'une araignée de texte, car la liste de ces questions était fournie via AJAX. Richard Baxter a suggéré que ces données peuvent être facilement collectées à l'aide de la chaîne XPath, ce qui me convainc que l'architecture de recherche importXML dans Google Docs est également basée sur un navigateur sans tête. Il est écrit en rouge sur le schéma: "De la manière habituelle, ces données ne peuvent pas être obtenues, car il s'agit d'AJAX." Quoi qu'il en soit, ici Josh retire ces données de la page en utilisant PhantomJS. Il n'est pas possible de prendre des captures d'écran avec une araignée de texte, mais l'utilisation du navigateur webkit sans tête est aussi simple que cela. Dans cet exemple, Josh montre comment les captures d'écran sont prises à l'aide de PhantomJS. Chromium est une branche publique du navigateur Webkit, et je doute fortement que Google ait créé le navigateur pour des raisons purement altruistes. L'étude ci-dessus suggère que GoogleBot est un navigateur sans tête multithread basé sur le même code. Pourquoi ne nous disent-ils rien? Eh bien, en fait, disent-ils, mais affirment que «l'indexeur de robot pour créer des aperçus» est un objet complètement séparé. Imaginez ce robot comme «Mme Pacman». Un membre du forum principal des webmasters s'est plaint qu'en tant qu'agent utilisateur, ils affichent dans leurs journaux "Mozilla / 5.0 (X11; U; Linux x86_64; en-US) AppleWebKit / 534.14 (KHTML, comme Gecko) Chrome / 9.0.597 Safari / 534.14" et non "Mozilla / 5.0 (fr-fr) AppleWebKit / 525.13 (KHTML, comme Gecko; Google Web Preview) Version / 3.1 Safari / 525.13". John Mu a déclaré: "En tant qu'outil pour tester les aperçus instantanés, nous utilisons un agent utilisateur similaire à Chrome, afin de pouvoir comparer ce que le navigateur verra (en utilisant cet agent utilisateur) avec ce que nous voyons en utilisant l'accès mis en cache de Googlebot. Aperçu. " Bien que le navigateur sans tête et Googlebot, comme nous le savons, soient différents, il me semble qu'ils parcourent toujours les pages en parallèle et collectent des informations pour l'indexation et le classement. En d'autres termes, c'est comme une version simultanée à deux utilisateurs de Pacman avec Mme Pacman en 3D et Pacman ordinaire, qui jouent au même niveau en même temps. En fin de compte, il ne serait pas logique que les araignées parcourent l'ensemble du réseau deux fois séparément. Alors pourquoi tout n'est-il pas si clair concernant ces opportunités, car elles sont liées au classement? En résumé: la qualité de la recherche. Se cachant derrière les défauts des araignées de texte, les moteurs de recherche peuvent continuer à les utiliser comme bouc émissaire pour expliquer leurs résultats imparfaits. Ils peuvent continuer à évoluer vers des choses comme le AuthorRank prévu et s'appuyer sur le référencement pour optimiser littéralement leurs moteurs de recherche. Ils peuvent continuer à dire des choses vagues, comme «ne poursuivez pas l'algorithme», «améliorez l'expérience utilisateur» et «nous prenons en compte ce qui est visible sans faire défiler», ce qui rend les experts SEO facilitent le travail de Google. Les principaux produits de Google (et leurs seuls produits, si vous demandez à Eric Schmidt en justice), sont la recherche, et si vous publiez des informations selon lesquelles leurs capacités sont beaucoup plus élevées que celles déclarées, ils devront améliorer la qualité de la recherche. Ils ne nous en parlent pas, car au fur et à mesure que les opportunités se développent, la responsabilité aussi. Qu'est ce que cela veut dire pour nous? Lorsque Josh et moi avons présenté nos recherches, beaucoup de gens m'ont demandé: "Comment cela devrait-il changer mes actions en termes de référencement?" À mon avis, il y a trois points: 1. Javascript ne vous aidera à rien cacher. S'il vous semblait qu'avec l'aide du post-chargement JavaScript, vous pouviez masquer du contenu - arrêtez de le faire. Leurre et commutation est maintenant une méthode 100% inefficace. Pacman voit tout. 2. L'expérience utilisateur est extrêmement importante. Google peut littéralement voir votre site maintenant! Comme Matt Cutts l'a dit, ils regardent ce qui se trouve au-dessus de la bordure de défilement et peuvent donc prendre en compte lors du classement de la quantité de publicité présentée sur la page. Google peut utiliser des données comportementales avec la conception du site pour déterminer l'utilité du site pour les gens. C'est à la fois agréable et effrayant, mais cela signifie également que chaque spécialiste en référencement devrait acheter le livre Circle of Do Not Make Me Think. 3. Les outils de référencement doivent devenir plus intelligents. La plupart des outils de référencement sont basés sur des grattoirs de texte, et bien que beaucoup d'entre eux soient assez complexes (SEOmoz mène actuellement), ils ressemblent toujours beaucoup à Pacman dans les années 80. Si nous voulons comprendre ce que Google prend vraiment en compte lors du classement des pages, nous devons considérer plus d'aspects. - Lorsque vous discutez de choses telles que l'autorité de la page et la probabilité de spam, vous devez vérifier visuellement les pages du point de vue du programme, et ne pas être limité à de simples indicateurs, tels que la densité de distribution des mots clés et le graphique des liens. En d'autres termes, nous avons besoin d'un indicateur de qualité de perception de l'utilisateur (UX Quality Score), qui serait influencé par une analyse visuelle et d'éventuelles modifications du spam. - Vous devez comparer la différence entre la page affichée et ce que peut supposer le code. Cela peut être appelé le Delta Score. - Lors de l'évaluation de la répartition de la proportion de liens sur une page, vous devez également prendre en compte la transformation dynamique (transformations dinamiques), car les moteurs de recherche sont capables de comprendre combien de liens sont réellement sur la page. Ce facteur peut également être inclus dans le Delta Score. - Vous devez également inclure le traitement du langage naturel dans notre analyse, car cela, apparemment, est également pris en compte par l'algorithme de Google. Ce facteur n'affecte pas de manière significative le résultat global, mais aide à identifier les concepts clés auxquels la machine associe le contenu, ainsi qu'à bien comprendre ce que vaut le lien en tenant compte du résultat souhaité. En d'autres termes, une analyse contextuelle du graphe de liens est nécessaire. En deux choses, je suis d'accord avec Matt Kuts. Le seul paramètre constant est le changement. Cependant, nous devons également comprendre que Google continuera de nous informer de manière erronée de ses capacités ou de nous pousser à certaines conclusions, auxquelles nous adhérerons ensuite. Par conséquent, nous devons comprendre que Google est responsable de sa technologie. Autrement dit, s'ils peuvent prouver avec précision qu'ils ne font rien, alors à partir de ce moment, ils devraient commencer; après tout, certains des ingénieurs les plus talentueux de la planète y travaillent. Google continue de compliquer le marketing des moteurs de recherche et d'annuler les données qui nous permettent d'améliorer l'expérience utilisateur, mais le fait est que nous avons une symbiose. Les moteurs de recherche ont besoin de spécialistes du référencement et de webmasters pour rendre le réseau plus rapide, plus facile et plus compréhensible, et nous avons besoin de moteurs de recherche pour promouvoir un contenu de haute qualité dans des endroits plus importants. Le problème est que Google a toutes les cartes en main, et je suis heureux d'avoir fait de mon mieux pour en arracher une. Votre déménagement, Matt.
https://ne-onn.blog.ru/137298867.html
Mais pas moins intéressant ... je pense que oui ...
De plus, le texte de l’auteur ...
Preuve
La fonction d'aperçu instantané est la raison pour laquelle nous voyons des captures d'écran d'annotations dans SERP. Ces aperçus ont une opportunité impressionnante: ils affichent non seulement une capture d'écran de la page, mais mettent également en évidence et soulignent visuellement le texte qui convient à votre demande. Ce n'est tout simplement pas possible avec une simple araignée de texte. Captures d'écran de pages flash - vous avez peut-être déjà remarqué des captures d'écran de sites flash dans les outils Google pour les webmasters. Attendez ... Je pensais que Google n'a pas vu le flash ... Confirmation de la demande AJAX POST - Matt Cutts a confirmé que GoogleBot peut gérer les demandes AJAX POST, et, par hasard, cela s'est produit quelques heures après que Rand a posté l'article " GoogleBot est Chrome. " Par définition, AJAX est un contenu chargé en JavaScript lorsqu'une action se produit après le chargement de la page. Par conséquent, il ne peut pas être suivi avec une araignée de texte, car l'araignée de texte n'exécute pas JavaScript, mais reçoit uniquement le code existant tel que fourni lors du téléchargement initial. Google suit Flash - Matt Clayton m'a également montré quelques journaux de serveur dans lesquels GoogleBot accédait à des URL qui ne sont accessibles que via les modules Flash intégrés sur Mixcloud.com: 66.249.71.130 "13 / Nov / 2011: 11: 55: 41 + 0000 "" GET / config /? W = 300 & h = 300 & js = 1 & embed_type = widget_standard & feed = http% 3A // www.mixcloud.com / chrisreadsubstance / bbe-mixtape-competition-2010.json & tk = TlVMTA HTTP / 1.1 "200 695" - - "" Mozilla / 5.0 (compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) "66.249.71.116" 13 / nov / 2011: 11: 51: 14 +0000 "" GET / config /?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP / 1.1 "200 694" - "" Mozilla / 5.0 ( compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) Disons que ce n'est pas une nouvelle, mais un autre article de 2008 explique que Google «traite les fichiers Flash de la même manière qu'ils le feraient une personne en saisissant des données, etc. ». Et, vous voulez dire, comment une personne fonctionne-t-elle avec un navigateur? Site - Bien que Google puisse obtenir le temps de chargement du site Web à partir de la barre d'outils et les données d'utilisation de Chrome, il est beaucoup plus fiable d'obtenir ces informations en indexant le réseau lui-même. Sans exécuter tout le code de la page, il est presque impossible de calculer avec précision le temps de chargement de cette page. Jusqu'à présent, tout cela pouvait sembler comme si Google n'était qu'à quelques pas de SkyNet. Et les optimiseurs et Google nous assurent depuis de nombreuses années que le robot de recherche (araignée) a une base textuelle, cela peut donc vous sembler fantastique. Je vous assure que ce n'est pas le cas, et la plupart des choses dont je parle sont accessibles aux programmeurs, même avec une équipe d'ingénieurs beaucoup moins puissante que Google. Découvrez PhantomJS PhantomJS est un navigateur Webkit sans tête qui peut être contrôlé via l'API JavaScript. Avec une petite automatisation de script, vous pouvez facilement transformer votre navigateur en araignée. C'est drôle que son logo soit un fantôme similaire aux fantômes de Pacman, et le concept est assez simple: PhantomJS est utilisé pour charger la page telle que l'utilisateur la voit dans Firefox, Chrome ou Safari, extraire des matériaux et suivre les liens. PhantomJS a d'innombrables applications pour analyser les informations et d'autres types d'analyse de site, et je conseille à la communauté SEO de s'en rendre compte avant de passer à autre chose. Josh a utilisé PhantomJS pour préparer des preuves pour les informations que j'ai publiées sur SearchLove. Plus tôt, lorsque j'ai publié GoFish, j'ai déjà mentionné que j'avais du mal à collecter des informations sur la croissance du nombre de demandes de Google Insights à l'aide d'une araignée de texte, car la liste de ces questions était fournie via AJAX. Richard Baxter a suggéré que ces données peuvent être facilement collectées à l'aide de la chaîne XPath, ce qui me convainc que l'architecture de recherche importXML dans Google Docs est également basée sur un navigateur sans tête. Il est écrit en rouge sur le schéma: "De la manière habituelle, ces données ne peuvent pas être obtenues, car il s'agit d'AJAX." Quoi qu'il en soit, ici Josh retire ces données de la page en utilisant PhantomJS. Il n'est pas possible de prendre des captures d'écran avec une araignée de texte, mais l'utilisation du navigateur webkit sans tête est aussi simple que cela. Dans cet exemple, Josh montre comment les captures d'écran sont prises à l'aide de PhantomJS. Chromium est une branche publique du navigateur Webkit, et je doute fortement que Google ait créé le navigateur pour des raisons purement altruistes. L'étude ci-dessus suggère que GoogleBot est un navigateur sans tête multithread basé sur le même code. Pourquoi ne nous disent-ils rien? Eh bien, en fait, disent-ils, mais affirment que «l'indexeur de robot pour créer des aperçus» est un objet complètement séparé. Imaginez ce robot comme «Mme Pacman». Un membre du forum principal des webmasters s'est plaint qu'en tant qu'agent utilisateur, ils affichent dans leurs journaux "Mozilla / 5.0 (X11; U; Linux x86_64; en-US) AppleWebKit / 534.14 (KHTML, comme Gecko) Chrome / 9.0.597 Safari / 534.14" et non "Mozilla / 5.0 (fr-fr) AppleWebKit / 525.13 (KHTML, comme Gecko; Google Web Preview) Version / 3.1 Safari / 525.13". John Mu a déclaré: "En tant qu'outil pour tester les aperçus instantanés, nous utilisons un agent utilisateur similaire à Chrome, afin de pouvoir comparer ce que le navigateur verra (en utilisant cet agent utilisateur) avec ce que nous voyons en utilisant l'accès mis en cache de Googlebot. Aperçu. " Bien que le navigateur sans tête et Googlebot, comme nous le savons, soient différents, il me semble qu'ils parcourent toujours les pages en parallèle et collectent des informations pour l'indexation et le classement. En d'autres termes, c'est comme une version simultanée à deux utilisateurs de Pacman avec Mme Pacman en 3D et Pacman ordinaire, qui jouent au même niveau en même temps. En fin de compte, il ne serait pas logique que les araignées parcourent l'ensemble du réseau deux fois séparément. Alors pourquoi tout n'est-il pas si clair concernant ces opportunités, car elles sont liées au classement? En résumé: la qualité de la recherche. Se cachant derrière les défauts des araignées de texte, les moteurs de recherche peuvent continuer à les utiliser comme bouc émissaire pour expliquer leurs résultats imparfaits. Ils peuvent continuer à évoluer vers des choses comme le AuthorRank prévu et s'appuyer sur le référencement pour optimiser littéralement leurs moteurs de recherche. Ils peuvent continuer à dire des choses vagues, comme «ne poursuivez pas l'algorithme», «améliorez l'expérience utilisateur» et «nous prenons en compte ce qui est visible sans faire défiler», ce qui rend les experts SEO facilitent le travail de Google. Les principaux produits de Google (et leurs seuls produits, si vous demandez à Eric Schmidt en justice), sont la recherche, et si vous publiez des informations selon lesquelles leurs capacités sont beaucoup plus élevées que celles déclarées, ils devront améliorer la qualité de la recherche. Ils ne nous en parlent pas, car au fur et à mesure que les opportunités se développent, la responsabilité aussi. Qu'est ce que cela veut dire pour nous? Lorsque Josh et moi avons présenté nos recherches, beaucoup de gens m'ont demandé: "Comment cela devrait-il changer mes actions en termes de référencement?" À mon avis, il y a trois points: 1. Javascript ne vous aidera à rien cacher. S'il vous semblait qu'avec l'aide du post-chargement JavaScript, vous pouviez masquer du contenu - arrêtez de le faire. Leurre et commutation est maintenant une méthode 100% inefficace. Pacman voit tout. 2. L'expérience utilisateur est extrêmement importante. Google peut littéralement voir votre site maintenant! Comme Matt Cutts l'a dit, ils regardent ce qui se trouve au-dessus de la bordure de défilement et peuvent donc prendre en compte lors du classement de la quantité de publicité présentée sur la page. Google peut utiliser des données comportementales avec la conception du site pour déterminer l'utilité du site pour les gens. C'est à la fois agréable et effrayant, mais cela signifie également que chaque spécialiste en référencement devrait acheter le livre Circle of Do Not Make Me Think. 3. Les outils de référencement doivent devenir plus intelligents. La plupart des outils de référencement sont basés sur des grattoirs de texte, et bien que beaucoup d'entre eux soient assez complexes (SEOmoz mène actuellement), ils ressemblent toujours beaucoup à Pacman dans les années 80. Si nous voulons comprendre ce que Google prend vraiment en compte lors du classement des pages, nous devons considérer plus d'aspects. - Lorsque vous discutez de choses telles que l'autorité de la page et la probabilité de spam, vous devez vérifier visuellement les pages du point de vue du programme, et ne pas être limité à de simples indicateurs, tels que la densité de distribution des mots clés et le graphique des liens. En d'autres termes, nous avons besoin d'un indicateur de qualité de perception de l'utilisateur (UX Quality Score), qui serait influencé par une analyse visuelle et d'éventuelles modifications du spam. - Vous devez comparer la différence entre la page affichée et ce que peut supposer le code. Cela peut être appelé le Delta Score. - Lors de l'évaluation de la répartition de la proportion de liens sur une page, vous devez également prendre en compte la transformation dynamique (transformations dinamiques), car les moteurs de recherche sont capables de comprendre combien de liens sont réellement sur la page. Ce facteur peut également être inclus dans le Delta Score. - Vous devez également inclure le traitement du langage naturel dans notre analyse, car cela, apparemment, est également pris en compte par l'algorithme de Google. Ce facteur n'affecte pas de manière significative le résultat global, mais aide à identifier les concepts clés auxquels la machine associe le contenu, ainsi qu'à bien comprendre ce que vaut le lien en tenant compte du résultat souhaité. En d'autres termes, une analyse contextuelle du graphe de liens est nécessaire. En deux choses, je suis d'accord avec Matt Kuts. Le seul paramètre constant est le changement. Cependant, nous devons également comprendre que Google continuera de nous informer de manière erronée de ses capacités ou de nous pousser à certaines conclusions, auxquelles nous adhérerons ensuite. Par conséquent, nous devons comprendre que Google est responsable de sa technologie. Autrement dit, s'ils peuvent prouver avec précision qu'ils ne font rien, alors à partir de ce moment, ils devraient commencer; après tout, certains des ingénieurs les plus talentueux de la planète y travaillent. Google continue de compliquer le marketing des moteurs de recherche et d'annuler les données qui nous permettent d'améliorer l'expérience utilisateur, mais le fait est que nous avons une symbiose. Les moteurs de recherche ont besoin de spécialistes du référencement et de webmasters pour rendre le réseau plus rapide, plus facile et plus compréhensible, et nous avons besoin de moteurs de recherche pour promouvoir un contenu de haute qualité dans des endroits plus importants. Le problème est que Google a toutes les cartes en main, et je suis heureux d'avoir fait de mon mieux pour en arracher une. Votre déménagement, Matt.
https://ne-onn.blog.ru/137298867.html
Original message
Извините пост писал спец и поэтому простому юзеру будет несколько сложновато...
Но не менее интересно... Мне так кажется...
Далее текст автора...
Доказательства
Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком. Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш... Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке. Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com: 66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)" 66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером? Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы. До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google. Знакомьтесь – PhantomJS PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше. Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove. Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser. На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX». Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS. Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS. Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода. Почему нам ничего не говорят? Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman». Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13". Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью». В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности. Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google. Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность. Что это означает для нас? Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента: 1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все. 2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать». 3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов. - При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама. - Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score). - При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score). - Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок. В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете. Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них. Твой ход, Мэтт.
https://ne-onn.blog.ru/137298867.html
Но не менее интересно... Мне так кажется...
Далее текст автора...
Доказательства
Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком. Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш... Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке. Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com: 66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)" 66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером? Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы. До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google. Знакомьтесь – PhantomJS PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше. Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove. Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser. На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX». Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS. Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS. Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода. Почему нам ничего не говорят? Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman». Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13". Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью». В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности. Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google. Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность. Что это означает для нас? Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента: 1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все. 2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать». 3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов. - При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама. - Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score). - При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score). - Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок. В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете. Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них. Твой ход, Мэтт.
https://ne-onn.blog.ru/137298867.html