Kontaktieren Sie uns in Messenger oder per Telefon.

whatsapp telegram viber phone email
+79214188555

Google sees EVERYTHING. In the literal sense, sees

Детективное агентство ИКС-Инфо.

Зарегистрированный
Registrado
11 Nov 2010
Mensajes
204
Puntuación de reacción
8
Puntos
38
Edad
66
Ubicación
Украина, Кривой Рог. +380 98 720 3431; +380 93 743
Sitio web
www.iks-info.narod2.ru
Lo sentimos, la publicación fue escrita por especiales y, por lo tanto, será un poco complicado para un usuario simple ...
Pero no menos interesante ... Creo que sí ...


Además, el texto del autor ...

Evidencia
La función Vista previa instantánea es la razón por la que vemos capturas de pantalla de anotaciones en SERP. Estas vistas previas tienen una oportunidad impresionante: no solo muestran una captura de pantalla de la página, sino que también resaltan y subrayan visualmente el texto que se ajusta a su solicitud. Esto simplemente no es posible con una simple araña de texto. Capturas de pantalla de páginas flash: es posible que ya haya notado capturas de pantalla de sitios flash en las Herramientas para webmasters de Google. Espere ... pensé que Google no vio el flash ... Confirmación de la solicitud de AJAX POST: Matt Cutts confirmó que GoogleBot puede manejar las solicitudes de AJAX POST y, por casualidad, esto sucedió unas horas después de que Rand publicara el artículo " GoogleBot es Chrome ". Por definición, AJAX es contenido cargado de JavaScript cuando se produce una acción después de que se carga una página. Por lo tanto, no se puede rastrear con una araña de texto, porque la araña de texto no ejecuta JavaScript, sino que solo recibe el código existente tal como se proporciona en la descarga inicial. Google rastrea Flash: Matt Clayton también me mostró algunos registros del servidor en los que GoogleBot accedía a URL a las que solo se puede acceder a través de los módulos Flash integrados en Mixcloud.com: 66.249.71.130 "13 / Nov / 2011: 11: 55: 41 + 0000 "" GET / config /? W = 300 & h = 300 & js = 1 & embed_type = widget_standard & feed = http% 3A // www.mixcloud.com / chrisreadsubstance / bbe-mixtape-competition-2010.json & tk = TlVMTA HTTP / 1.1 "200 695" - "" Mozilla / 5.0 (compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) "66.249.71.116" 13 / nov / 2011: 11: 51: 14 +0000 "" GET / config /?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP / 1.1 "200 694" - "" Mozilla / 5.0 ( compatible; Googlebot / 2.1; + http: //www.google.com/bot.html) Digamos que esto no es noticia, pero otra publicación de 2008 explica que Google "trata los archivos Flash de la misma manera que lo harían". una persona ingresando datos, y así sucesivamente ”. Y, quiere decir, ¿cómo trabaja una persona con un navegador? Sitio: aunque Google podría obtener el tiempo de carga del sitio web desde la barra de herramientas y los datos de uso de Chrome, es mucho más confiable que obtenga esta información indexando la propia red. Sin ejecutar todo el código de la página, es casi imposible calcular con precisión el tiempo de carga de esta página. Hasta ahora, todo esto puede haber sonado como Google a solo unos pasos de SkyNet. Y los optimizadores y Google nos han asegurado durante muchos años que el robot de búsqueda (araña) tiene una base textual, por lo que esto puede parecer fantástico. Les aseguro que esto no es así, y muchas de las cosas de las que estoy hablando son accesibles para los programadores, incluso con un equipo de ingenieros mucho menos fuerte que Google. Conozca PhantomJS PhantomJS es un navegador Webkit sin cabeza que se puede controlar a través de la API de JavaScript. Con una pequeña automatización de script, puede convertir fácilmente su navegador en una araña. Es curioso que su logotipo sea un fantasma similar a los fantasmas de Pacman, y el concepto es bastante simple: PhantomJS se usa para cargar la página tal como la ve el usuario en Firefox, Chrome o Safari, extraer materiales y rastrear enlaces. PhantomJS tiene innumerables aplicaciones para analizar información y otros tipos de análisis de sitios web, y aconsejo a la comunidad de SEO que se dé cuenta de esto antes de continuar. Josh usó PhantomJS para preparar algunas pruebas de la información que publiqué en SearchLove. Anteriormente, cuando lancé GoFish, ya mencioné que tenía dificultades para recopilar información sobre el crecimiento en el número de solicitudes de Google Insights utilizando una araña de texto debido al hecho de que la lista de estas preguntas se proporciona a través de AJAX. Richard Baxter sugirió que estos datos se pueden recopilar fácilmente utilizando la cadena XPath, y esto me convence de que la arquitectura de búsqueda importXML en Google Docs también se basa en un navegador sin cabeza. Está escrito en rojo en el diagrama: "De la manera habitual, estos datos no se pueden obtener, porque es AJAX". De todos modos, aquí Josh saca estos datos de la página usando PhantomJS. No es posible tomar capturas de pantalla con una araña de texto, pero usar el navegador webkit sin cabeza es tan simple como eso. En este ejemplo, Josh muestra cómo se toman capturas de pantalla con PhantomJS. Chromium es una rama pública del navegador Webkit, y dudo mucho que Google haya creado el navegador por razones puramente altruistas. El estudio anterior sugiere que GoogleBot es un navegador sin cabeza multiproceso basado en el mismo código. ¿Por qué no nos dicen nada? Bueno, en realidad, dicen, pero afirman que el "indexador de robot para crear vistas previas" es un objeto completamente separado. Imagine este robot como "la señora Pacman". Un miembro del foro principal de webmasters se quejó de que, como agente de usuario, muestran en sus registros "Mozilla / 5.0 (X11; U; Linux x86_64; en-US) AppleWebKit / 534.14 (KHTML, como Gecko) Chrome / 9.0.597 Safari / 534.14" y no "Mozilla / 5.0 (es-es) AppleWebKit / 525.13 (KHTML, como Gecko; Vista previa web de Google) Versión / 3.1 Safari / 525.13". John Mu dijo: "Como herramienta para probar vistas previas instantáneas, utilizamos un agente de usuario similar a Chrome, para que podamos comparar lo que verá el navegador (usando este agente de usuario) con lo que vemos usando el acceso en caché de Googlebot vista previa ". Si bien el navegador sin cabeza y el robot de Google, como sabemos, son diferentes, me parece que siempre navegan por las páginas en paralelo y recopilan información para indexar y clasificar. En otras palabras, es como una versión simultánea de Pacman para dos usuarios con Mrs. Pacman en 3D y Pacman regular, que juegan en el mismo nivel al mismo tiempo. Al final, no tendría sentido que las arañas naveguen por toda la red dos veces por separado. Entonces, ¿por qué no está todo tan claro con respecto a estas oportunidades, porque están relacionadas con la clasificación? En pocas palabras: calidad de búsqueda. Escondiéndose detrás de los defectos de las arañas de texto, los motores de búsqueda pueden seguir usándolos como chivos expiatorios para explicar sus resultados imperfectos. Pueden seguir avanzando en la dirección de cosas como el supuesto AuthorRank y confiar en el SEO para optimizar literalmente sus motores de búsqueda. Pueden seguir diciendo cosas vagas, como "no persiga el algoritmo", "mejore la experiencia del usuario" y "tengamos en cuenta lo que es visible sin desplazarse", lo que hace que los expertos en SEO faciliten el trabajo de Google. Los principales productos de Google (y sus únicos productos, si le pregunta a Eric Schmidt en la corte), es la búsqueda, y si divulga información de que sus capacidades son mucho más altas que las declaradas, tendrán que mejorar la calidad de la búsqueda. No nos lo cuentan, porque a medida que crecen las oportunidades, también lo hace la responsabilidad. ¿Qué significa esto para nosotros? Cuando Josh y yo presentamos nuestra investigación, muchas personas me preguntaron: "¿Cómo debería esto cambiar mis acciones en términos de SEO?" En mi opinión, hay tres puntos: 1. Javascript no te ayudará a ocultar nada. Si le pareció que con la ayuda de la carga de JavaScript puede ocultar algo de contenido, deje de hacerlo. Atraer y cambiar es ahora un método 100% ineficiente. Pacman lo ve todo. 2. La experiencia del usuario es extremadamente importante. ¡Google puede ver literalmente tu sitio ahora! Como dijo Matt Cutts, observan lo que está encima del borde de desplazamiento y, por lo tanto, pueden tener en cuenta al clasificar la cantidad de publicidad que se presenta en la página. Google puede usar datos de comportamiento junto con el diseño del sitio para determinar qué tan útil es el sitio para las personas. Esto es a la vez agradable y aterrador, pero también significa que todo especialista en SEO debería comprar el libro Círculo de No me hagas pensar. 3. Las herramientas de SEO necesitan ser más inteligentes. La mayoría de las herramientas de SEO se basan en raspadores de texto, y aunque muchas de ellas son bastante complejas (SEOmoz actualmente lidera), todavía se parecen mucho a Pacman en los años 80. Si queremos entender lo que Google realmente tiene en cuenta al clasificar las páginas, debemos considerar más aspectos. - Cuando se discuten temas como la Autoridad de la página y la probabilidad de spam, debe verificar visualmente las páginas desde el punto de vista del programa, y no limitarse a indicadores simples, como la densidad de distribución de las palabras clave y el gráfico de enlaces. En otras palabras, necesitamos un indicador de calidad de percepción del usuario (Nivel de calidad UX), que estaría influenciado por el análisis visual y las posibles modificaciones al spam. - Debe comparar cuánto difiere la página que se muestra de lo que puede suponer el código. Esto puede llamarse Delta Score. - Al evaluar la distribución de la proporción de enlaces en una página, también se debe tener en cuenta la transformación dinámica (transformaciones dinámicas), ya que los motores de búsqueda pueden comprender cuántos enlaces hay realmente en la página. Este factor también se puede incluir en la puntuación Delta. - También debe incluir el procesamiento del lenguaje natural en nuestro análisis, ya que, aparentemente, esto también lo tiene en cuenta el algoritmo de Google. Este factor no afecta significativamente el resultado general, pero ayuda a identificar los conceptos clave con los que la máquina asocia el contenido, así como a comprender completamente lo que vale el enlace teniendo en cuenta el resultado deseado. En otras palabras, es necesario el análisis contextual del gráfico de enlaces. En dos cosas, estoy de acuerdo con Matt Kuts. El único parámetro constante es el cambio. Sin embargo, también debemos entender que Google continuará desinformando sobre sus capacidades o nos llevará a ciertas conclusiones, a las que luego nos adheriremos. Por lo tanto, debemos entender que Google es responsable de su tecnología. En pocas palabras, si pueden demostrar con precisión que no están haciendo nada, entonces a partir de este momento deberían comenzar; Después de todo, algunos de los ingenieros más talentosos del planeta trabajan allí. Google continúa complicando el marketing de motores de búsqueda y cancelando datos que nos permiten mejorar la experiencia del usuario, pero el hecho es que tenemos una simbiosis. Los motores de búsqueda necesitan especialistas en SEO y webmasters para que la red sea más rápida, fácil y comprensible, y necesitamos motores de búsqueda para promover contenido de calidad, ocupando lugares más prominentes. El problema es que Google tiene todas las tarjetas en sus manos, y me alegro de haber hecho todo lo posible para arrebatarles una. Tu movimiento, Matt.

https://ne-onn.blog.ru/137298867.html
 
Original message
Извините пост писал спец и поэтому простому юзеру будет несколько сложновато...
Но не менее интересно... Мне так кажется...


Далее текст автора...

Доказательства
Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком. Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш... Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке. Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com: 66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)" 66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed=http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html) Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером? Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы. До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google. Знакомьтесь – PhantomJS PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше. Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove. Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser. На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX». Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS. Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS. Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода. Почему нам ничего не говорят? Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman». Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13". Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью». В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности. Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google. Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность. Что это означает для нас? Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента: 1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все. 2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать». 3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов. - При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама. - Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score). - При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score). - Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок. В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете. Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них. Твой ход, Мэтт.

https://ne-onn.blog.ru/137298867.html

Частный детектив. Владивосток.

Зарегистрированный
Registrado
24 Jun 2010
Mensajes
311
Puntuación de reacción
9
Puntos
38
Edad
51
Ubicación
Владивосток. 8 914 791 41 32
 
Original message

Детективное агентство ИКС-Инфо.

Зарегистрированный
Registrado
11 Nov 2010
Mensajes
204
Puntuación de reacción
8
Puntos
38
Edad
66
Ubicación
Украина, Кривой Рог. +380 98 720 3431; +380 93 743
Sitio web
www.iks-info.narod2.ru
Частный детектив. Владивосток. dijo:

In-in ... y también rasgué los nabos de todos estos protocolos, etc. ...
Luego escupió, leyó "a través de la línea" y se dio cuenta ...
Google está siguiendo, escoria ... está siguiendo ...: roll:
 
Original message
Частный детектив. Владивосток. dijo:

Во-во... и я также репу чесал от всех этих протоколов и т.п. ...
Потом плюнул - почитал "через строчку" и понял...
Следит Гугл, сволочь... следит... :roll: