Яндекс уникальные тексты: «Как яндекс индексирует уникальные тексты, когда текст присутствует в Вконтакте?» — Яндекс Кью

Содержание

Яндекс, уникальные тексты, вч-запросы – QA PR-CY


Ответы на пост (20) Написать ответ

777q

20

07.02.2013 23:51

вч на 30 000 показов в месяц а приходят 150

я написала, что приходят на эту статью, а не все льются по одному единственному ВЧ запросу 🙂 Там и низкочастотники, конечно — плюс еще 1-2 слова. Основная масса по этому ВЧ запросу уходит на сайты со скачиванием и просмотром, естественно — я же этого не предлагаю.
Вопрос не в том, сколько приходят, а в том, что сайт по ВЧ находится высоко в топе, опережая конкурентов с другим типом контента.

какой сайт ?

сайт в лс можно?

я сам создал уникальную тему на одну страницу и в тот же день добавил на яндекс и через два дня наблюдал много обратных ссылок от http://search.ukr.net/ с большим весом на мой сайт вес был из зауникальности текста и описание других сайтов при пойске так что уникальность текста автоматический добавляеться много обратных ссылок на пост а не на сайт ( проше говоря )

есть еше один способ по которым можно поднять новость в топ 1 но ето секрет я раскрою его за 5 к

5 копеек ?

да нет зачем мне 5 копеек если можно его заработать 5 тысяч за секрет поднятие поста особенно уникального на топ 1 ето очень простой способ но работаюший

Dess33

20

08. 02.2013 00:48

Это вполне может быть.
Никто толком не знает, что Яше взбредет в голову после очередного апа.
Я сам пишу статьи. Иногда и статья хорошая, а в выдаче низко. А бывает вроде статья посредственная, на сайте раньше и ключей таких не было, а после размещения влезла в топ.
Уникальные фото с хорошим описанием также могут войти в топ сразу.

Спасибо, что поделились. И я сама пишу. У меня нет ни копирайта, ни рерайта — только авторские статьи.

Дело все в том, что я, будучи в сео полным чайником, первую статью даже не оптимизировала — эти два слова просто в заголовке были. Да и вторую, в общем-то, точно так же запустила, просто раньше не пользовалась этими ключами.
А эти стоят в топе практически с момента написания и попадания в индекс уже месяца три — стабильно.
Мне просто повезло: сама по себе тема, которой я занимаюсь — по ней в основном не пишут, а только картинки и видео кидают, а у меня тексты большие и, получается, актуальные.

вч запросы начинаются от миллиона показов в месяц. То что вы говорите — 30 000 показов — это НЧ Запрос, который вполне поднимается банальной перелинковкой и приличными текстами.

да ну что вы… Мы с вами об одном и том же говорим? Про статистику вордстат — не про выдачу документов по запросу в поиске, в смысле, конкурентность?
Просто если по вашему, получается, «купить автомобиль» с его 50 000 в вордстате — низкочастотник.

В моей теме этот двухсловный запрос имеет 30 000 по вордстату и 4 млн. ответов в яндекс-поиске.

ckdoma

12

08.02.2013 03:54

ipreallyfire школота иди уроки учи,как сказали выше одному. Всё верно тебе говорят, вч может быть и 5.000 показов в месяц. Дурни надоели уже строить из себя сеошников и гуру. Подумал бы прежде чем ляпать своим языком. Жесть, вч от миллиона показов,всё строго зависит от ТЕМАТИКИ. Схватят инфы поверхносто и советы раздают сидят. «Приличные текста» это вообще вершина словоблюдия,ладно крою топ.

я вижу 100к запросов — купить автомобиль по вордстату. Это СЧ запрос.
ВЧ запрос — это, например — minecraft

Вам уже указали, что бред пишете.Кому нужны эти дурацкие некоммерческие запросы? Только школьникам, у которых карманы пустые.

Возьмите, к примеру, «роллеты». Посмотрите частотность. А потом выведите его «банальной перелинковкой и приличными текстами».

Да что там, берите сразу «окна пвх». Мелочь какая, всего-то 92000 показов по вордстату. Вывести его Вам, наверное, плевое дело :))))

ipreallyfire, ты в натуре ерунду пишешь. Частотность нельзя определять абтрактно по кол-ву запросов, а нужно обязательно привязываться к тематике запроса. ВЧ-запрос это такой, что первым приходит в голову. СЧ-запрос, это если немного подумать. А НЧ-запрос, это так завернуть, что мало кому в голову придет. Увеличить член (ВЧ), Руководство по увеличению члена (СЧ), Увеличение члена в домашних условиях (НЧ). И количество запросов по этой теме будет пропорционально зависеть от степени заинтересованности пользователей. Очевидно, если ориентироваться на Китай, то тут и миллиард будет, а для Ватикана и сотня — уже хорошо.

Вот для эксперимента вводи эти фразы в поисковик, и посмотри на результаты выдачи.

1 фраза — больше 4 млн, 2 — более 800 тыс, 3 — чуть больше 100 тыс.

Как защитить контент сайта от копирования / Skillbox Media

Маркетинг

#Руководства

  • 19

Воровство в интернете встречается на каждом шагу и сильно вредит бизнесу.

Рассказываем, как защитить сайт от копирования контента.

Vkontakte Twitter Telegram Скопировать ссылку

 vlada_maestro / shutterstock

Олеся Мельник

Пишет про дизайн и маркетинг в Skillbox Media. С 2011 по 2017 год писала про бизнес в деловые СМИ, соучредитель агентства копирайтинга «Абзац».

Уникальные тексты нужны не только для имиджа компании, но и чтобы ее сайт лучше индексировался поисковиками. Роботы «Яндекса» и Google умеют различать первоисточники информации и должны ставить оригинальные материалы на более высокие позиции поисковой выдачи. Однако этот алгоритм не безупречен, поэтому иногда ресурсы с заимствованными статьями попадают в топ и собирают основной трафик. То есть платить за создание контента будете вы, а всю пользу от него получат недобросовестные конкуренты.

Способа, который гарантированно защитит ресурс от кражи контента, не существует, однако, некоторые лайфхаки сильно усложняют жизнь любителям брать чужое без спроса и помогают доказать свое авторство.

У «Яндекса» есть специальный сервис, при помощи которого можно подтвердить, что текст принадлежит именно вам. Для этого нужно зарегистрировать сайт в системе «Яндекс. Вебмастер» и загрузить еще не опубликованный материал в специальную форму в разделе «Оригинальные тексты».

Текст можно заливать на сайт после того, как «Вебмастер» обработает заявку. Теперь роботы «Яндекса» гораздо быстрее проиндексируют его как первоисточник. А если кто-то украдет вашу статью, администрация поисковика будет на вашей стороне.

Интерфейс «Яндекс.Вебмастера»

Сервис FeedBurner нужен для работы с RSS-потоками. Если активировать в нем функцию Ping Shot, Google будет моментально получать уведомления о том, что содержимое вашего сайта обновилось, и начнет индексировать свежие материалы гораздо быстрее. Текст, который попал в поисковую выдачу, интересует расхитителей контента куда меньше, ведь его первоисточник уже известен.

Постинг в социальных сетях — еще один способ добиться правильной индексации. Вебмастера и специалисты по SEO давно заметили, что материал, ссылки на который есть в Twitter, Facebook* и «ВКонтакте», быстрей попадет в поисковую выдачу, а алгоритм воспринимает его как первоисточник.

Ссылки на все тексты Skillbox есть в группах во «Вконтакте» и Facebook*.

Помимо социальных сетей, полезно размещать анонсы в блогах, к примеру, на LiveJournal или Blogspot, и на сайтах партнеров.

Юристы, которые занимаются авторским правом, советуют распечатать оригинальный текст или изображение и перед публикацией отправить его самому себе заказным письмом. Когда получите конверт — не вскрывайте его и положите в ящик с документами. Если позже кто-то скопирует материал, по почтовым штемпелям можно будет доказать, что вы создали текст или картинку гораздо раньше.

Проще всего украсть абстрактные статьи, которые подходят для наполнения любого сайта, тематика которого схожа с вашей. Если писать материалы от первого лица, упоминать название компании, имена сотрудников и их комментарии, текст получится более интересным и профессиональным, а скопировать его без изменений будет трудно.

«Чтобы избежать двойной конвертации, перед поездкой в Европу нужно заказать карту Mastercard со счетом в евро» — текст, который можно запросто опубликовать на любом сайте про путешествия или личные финансы.

«В последней поездке по Италии я пользовался кредиткой Mastercard в евро, чтобы не платить комиссию за конвертацию» — текст, в котором описан личный опыт автора. Чтобы украсть его, придется как минимум сделать рерайт. Хотя от тех, кто копирует чужой контент не читая, это все равно не убережет.

На оригинальные фотографии, картинки и видеоролики можно добавлять фирменные цвета, графические элементы, логотип компании или ссылку на группу и сайт. Это повысит узнаваемость бренда и частично защитит от копирования.

Естественно, логотип или водяной знак можно обрезать или убрать при помощи специальных программ, однако не каждый станет тратить на это время и силы, а значит какой-то процент сетевых воришек обойдет вас стороной. К тому же, картинка с элементами фирменного стиля может примелькаться пользователям, а значит есть шанс, что они запомнят, что автор этого изображения именно вы, а это не менее важно.

Логотип на фотографии делает ее авторской.

Чтобы автоматически наносить водяные знаки на изображения, подойдут плагины Image Watermark и NextGEN Gallery или программа Visual Watermark. Но будьте осторожны: огромный логотип, перекрывающий часть картинки, может раздражать пользователей.

Плагин Photo Protect поможет защитить картинку или фотографию от скачивания, вместо них вор получит только пустой файл. Похожий трюк можно провернуть с помощью Photoshop: для этого поверх оригинального изображения накладывается прозрачный слой такого же размера.

Этот вариант не даст скачать картинку в исходном размере, однако при желании ее все равно можно будет скопировать, сделав скриншот.

Полностью защитить контент сайта от копирования невозможно, конкуренты всегда могут сделать рерайт оригинальных текстов, убрать логотип с фотографии или просто украсть вашу идею. Поэтому в основном борьба с плагиатом касается поисковой оптимизации, а уникальными считаются именно те материалы, которые попадают в топ поисковой выдачи.

На курсе «Интернет-маркетолог от Ingate» есть отдельный модуль, посвященный SEO. Из него вы узнаете, как ускорить индексацию сайта и создать контент, который подходит под требования «Яндекса» и Google.

* Решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности.

Vkontakte Twitter Telegram Скопировать ссылку Научитесь: Интернет-маркетолог с нуля 2023 Узнать больше

Стартовал третий этап подачи работ на премию «Апостол» для медиа: рассказываем о ней 03 апр 2023

Продвижение сообществ во «ВКонтакте» переносят в новый рекламный кабинет: как он работает 10 мар 2023

Google призвал использовать анкорные ссылки — разбираемся, как делать анкоры 17 фев 2023

Понравилась статья?

Да

Яндекс собирает данные Google и других специалистов по SEO из утечки исходного кода

«Фрагменты» кодовой базы Яндекса просочились в сеть на прошлой неделе. Как и Google, Яндекс — это платформа со многими аспектами, такими как электронная почта, карты, служба такси и т. д. Утечка кода содержала фрагменты всего этого.

Согласно документации, кодовая база Яндекса была объединена в один большой репозиторий под названием Arcadia в 2013 году. Утекшая кодовая база является подмножеством всех проектов в Arcadia, и мы находим в ней несколько компонентов, связанных с поисковой системой в «Ядре», Архивы «Библиотека», «Робот», «Поиск» и «ExtSearch».

Совершенно беспрецедентный ход. С тех пор, как в данных поисковых запросов AOL за 2006 год не было ничего такого, что могло бы стать достоянием общественности, материалы, относящиеся к поисковой системе.

Хотя нам не хватает данных и многих файлов, на которые есть ссылки, это первый пример реального взгляда на то, как современная поисковая система работает на уровне кода.

Лично я не могу смириться с тем, какое фантастическое время для того, чтобы увидеть код, когда я заканчиваю свою книгу «Наука SEO», где я рассказываю о поиске информации, о том, как на самом деле работают современные поисковые системы, и как самому построить простую.

В любом случае, я разбирал код с прошлого четверга, и любой инженер скажет вам, что времени недостаточно, чтобы понять, как все работает. Итак, я подозреваю, что будет еще несколько постов, пока я продолжаю возиться.

Прежде чем мы начнем, я хочу поблагодарить Бена Уиллса из Онтоло за то, что он поделился со мной кодом, указал мне начальное направление, где находится хороший материал, и ходил со мной туда и обратно, пока мы расшифровывали. вещи. Не стесняйтесь взять электронную таблицу со всеми данными, которые мы собрали о факторах ранжирования, здесь.

Кроме того, спасибо Райану Джонсу за то, что он покопался и поделился со мной некоторыми важными выводами через мгновенные сообщения.

Ладно, приступим!

Это не код Google, так какое нам дело?

Некоторые считают, что просмотр этой кодовой базы отвлекает и что ничто не повлияет на то, как они принимают бизнес-решения. Я нахожу это любопытным, учитывая, что это люди из того же SEO-сообщества, которое использовало модель CTR из данных AOL за 2006 год в качестве отраслевого стандарта для моделирования в любой поисковой системе в течение многих последующих лет.

Тем не менее, Яндекс — это не Google. Тем не менее, эти две современные поисковые системы продолжают оставаться на переднем крае технологий.

Инженеры-программисты обеих компаний участвуют в одних и тех же конференциях (SIGIR, ECIR и т. д.) и делятся результатами и инновациями в области поиска информации, обработки/понимания естественного языка и машинного обучения. Яндекс также присутствует в Пало-Альто, а Google ранее был в Москве.

Быстрый поиск в LinkedIn выявляет несколько сотен инженеров, которые работали в обеих компаниях, хотя мы не знаем, сколько из них на самом деле работали над поиском в обеих компаниях.

При более прямом совпадении Яндекс также использует технологии Google с открытым исходным кодом, которые были критически важны для инноваций в поиске, таких как TensorFlow, BERT, MapReduce и, в гораздо меньшей степени, Protocol Buffers.

Итак, хотя Яндекс — это, конечно, не Google, но и не какой-то случайный исследовательский проект, о котором мы здесь говорим. Изучив эту кодовую базу, мы можем многое узнать о том, как устроена современная поисковая система.

По крайней мере, мы можем избавиться от некоторых устаревших представлений, которые все еще пронизывают инструменты SEO, таких как соотношение текста и кода и соответствие W3C, или общее мнение, что 200 сигналов Google — это просто 200 отдельных функций на странице и за ее пределами, а не классы составных факторов, которые потенциально могут использовать тысячи отдельных показателей.

Некоторый контекст архитектуры Яндекса

Без контекста или возможности успешно скомпилировать, запустить и выполнить пошаговое выполнение исходного кода очень сложно понять.

Как правило, новые инженеры получают документацию, обзоры и занимаются парным программированием, чтобы освоиться с существующей кодовой базой. Кроме того, в архиве документов есть некоторая ограниченная документация по адаптации, связанная с настройкой процесса сборки. Тем не менее, код Яндекса также везде ссылается на внутренние вики, но они не просочились, а комментарии в коде также довольно скудны.

К счастью, Яндекс дает некоторое представление о своей архитектуре в общедоступной документации. Есть также пара патентов, опубликованных в США, которые помогают пролить свет. А именно:

  • Реализованный компьютером способ и система для поиска в инвертированном индексе, имеющем множество списков рассылки
  • Ранжирование результатов поиска 

Когда я исследовал Google для своей книги, я получил гораздо более глубокое понимание структуры его систем ранжирования благодаря различным документам, патентам и выступлениям инженеров, основанным на моем опыте SEO. Я также потратил много времени, оттачивая свое понимание общих рекомендаций по поиску информации для поисковых систем. Неудивительно, что у Яндекса действительно есть некоторые передовые практики и сходства.

В документации Яндекса обсуждается двухраспределенная система краулеров. Один для сканирования в реальном времени под названием «Оранжевый краулер», а другой — для обычного сканирования.

Исторически у Google был индекс, разделенный на три сегмента: один для сканирования в реальном времени, один для регулярного сканирования и один для редко сканируемого. Этот подход считается лучшей практикой в ​​IR.

Яндекс и Google различаются в этом отношении, но общая идея сегментированного сканирования, основанная на понимании частоты обновления, сохраняется.

Стоит отметить, что у Яндекса нет отдельной системы рендеринга для JavaScript. Они говорят об этом в своей документации и, хотя у них есть система визуального регрессионного тестирования на основе Webdriver под названием Gemini, они ограничиваются текстовым сканированием.

В документации также обсуждается сегментированная структура базы данных, которая разбивает страницы на инвертированный индекс и сервер документов.

Как и в большинстве других поисковых систем, процесс индексации создает словарь, кэширует страницы, а затем помещает данные в инвертированный индекс таким образом, чтобы были представлены биграммы и тригамы и их размещение в документе.

Это отличается от Google тем, что они давно перешли на индексацию на основе фраз, что означает, что n-граммы могут быть намного длиннее триграмм.

Однако система Яндекса также использует BERT в своем пайплайне, поэтому в какой-то момент документы и запросы конвертируются во вложения, а для ранжирования используются методы поиска ближайших соседей.

Процесс ранжирования становится более интересным.

В Яндексе есть слой под названием Метапоиск , где кэшированные популярные результаты поиска обслуживаются после обработки запроса. Если результаты там не найдены, то поисковый запрос отправляется на серию из тысяч разных машин в Базовый поиск слоя одновременно. Каждый создает список публикаций релевантных документов, а затем возвращает его в MatrixNet, приложение нейронной сети Яндекса для повторного ранжирования, чтобы построить поисковую выдачу.

Судя по видеороликам, в которых инженеры Google рассказывают об инфраструктуре поиска, этот процесс ранжирования очень похож на поиск Google. Они говорят о том, что технология Google находится в общих средах, где различные приложения находятся на каждой машине, а задания распределяются между этими машинами в зависимости от наличия вычислительной мощности.

Одним из вариантов использования является именно это, распределение запросов по набору машин для быстрой обработки соответствующих осколков индекса. Вычисление списков публикации — это первое место, которое нам нужно учитывать для факторов ранжирования.

В кодовой базе 17 854 фактора ранжирования

В пятницу после утечки неподражаемый Мартин Макдональд охотно поделился файлом из кодовой базы под названием web_factors_info/factors_gen.in. Файл взят из архива «Kernel» в утечке кодовой базы и содержит 1,922 фактора ранжирования.

Естественно, SEO-сообщество использовало этот номер и этот файл, чтобы охотно распространять новости о содержащихся в нем сведениях. Многие люди перевели описания и создали инструменты или Google Sheets и ChatGPT, чтобы разобраться в данных. Все они являются прекрасными примерами силы сообщества. Однако число 1922 представляет собой лишь один из многих наборов факторов ранжирования в кодовой базе.

Более глубокое погружение в кодовую базу показывает, что существует множество файлов факторов ранжирования для различных подмножеств систем обработки запросов и ранжирования Яндекса.

Прочесывая их, мы обнаруживаем, что всего существует 17 854 фактора ранжирования. В эти факторы ранжирования входят различные показатели, связанные с:

  • Кликами.
  • Время ожидания.
  • Использование аналога Google Analytics от Яндекса, Метрики.

Существует также серия ноутбуков Jupyter, которые имеют дополнительные 2000 факторов помимо тех, что указаны в основном коде. Предположительно, эти блокноты Jupyter представляют собой тесты, в ходе которых инженеры рассматривают дополнительные факторы для добавления в кодовую базу. Опять же, вы можете просмотреть все эти функции с метаданными, которые мы собрали по всей кодовой базе, по этой ссылке.

Документация Яндекса также поясняет, что у них есть три класса факторов ранжирования: статические, динамические и те, которые связаны конкретно с поиском пользователя и тем, как он был выполнен. По их собственным словам:

В кодовой базе они указаны в файлах ранговых факторов с тегами TG_STATIC и TG_DYNAMIC. Факторы, связанные с поиском, имеют несколько тегов, таких как TG_QUERY_ONLY, TG_QUERY, TG_USER_SEARCH и TG_USER_SEARCH_ONLY.

Несмотря на то, что мы выявили 18 000 потенциальных факторов ранжирования на выбор, в документации, относящейся к MatrixNet, указано, что оценка строится на основе десятков тысяч факторов и настраивается на основе поискового запроса.

Это указывает на то, что среда ранжирования очень динамична, подобно среде Google. Согласно патенту Google «Структура для оценки функций оценки», у них уже давно есть что-то похожее, когда запускаются несколько функций и возвращается лучший набор результатов.

Наконец, учитывая, что в документации упоминаются десятки тысяч факторов ранжирования, мы также должны помнить, что в коде есть много других файлов, которые отсутствуют в архиве. Так что, вероятно, происходит что-то еще, чего мы не можем видеть. Это дополнительно иллюстрируется просмотром изображений в документации по подключению, на которых показаны другие каталоги, которых нет в архиве.

Например, я подозреваю, что в каталоге /semantic-search/ есть еще что-то связанное с DSSM.

Начальное взвешивание факторов ранжирования

Сначала я действовал, исходя из предположения, что кодовая база не имеет весов для факторов ранжирования. Затем я был потрясен, увидев, что файл nav_linear.h в каталоге /search/relevance/ содержит начальные коэффициенты (или веса), связанные с факторами ранжирования, в полном отображении.

Этот раздел кода выделяет 257 из 17 000+ факторов ранжирования, которые мы выявили. ( Совет Райану Джонсу за то, что он вытащил их и сопоставил с описаниями факторов ранжирования.) страница оценивается на основе ряда факторов. Хотя это упрощение, следующий снимок экрана является выдержкой из такого уравнения. Коэффициенты показывают, насколько важен каждый фактор, а результирующая вычисленная оценка будет использоваться для оценки релевантности страниц выбора.

Жестко закодированные значения позволяют предположить, что это не единственное место, где происходит ранжирование. Вместо этого эта функция, скорее всего, используется там, где первоначальная оценка релевантности выполняется для создания серии списков публикации для каждого сегмента, рассматриваемого для ранжирования. В первом патенте, упомянутом выше, они говорят об этом как о концепции независимой от запроса релевантности (QIR), которая затем ограничивает документы до их просмотра на предмет релевантности запроса (QSR).

Полученные списки сообщений затем передаются в MatrixNet с функциями запроса для сравнения. Таким образом, хотя мы не знаем специфики последующих операций (пока), эти веса по-прежнему ценны для понимания, потому что они говорят вам о требованиях, предъявляемых к странице, чтобы иметь право на набор вознаграждений.

Однако возникает следующий вопрос: что мы знаем о MatrixNet?

В архиве ядра есть код нейронного ранжирования и многочисленные ссылки на MatrixNet и «mxnet», а также множество ссылок на глубоко структурированные семантические модели (DSSM) по всей кодовой базе.

В описании одного из факторов ранжирования FI_MATRIXNET указано, что MatrixNet применяется ко всем факторам.

Коэффициент {

    Индекс:              160

    CppName:            «FI_MATRIXNET»

    Имя:               «MatrixNet»

    Теги:              R_USE, TG_L3_MODEL_VALUE, TG_FRESHNESS_FROZEN_POOL]

    Описание:        «MatrixNet применяется ко всем факторам — формула»

}

Также есть куча бинарных файлов, которые сами могут быть предварительно обученными моделями, но мне потребуется больше времени, чтобы разобраться в этих аспектах кода.

Сразу становится ясно, что существует несколько уровней ранжирования (L1, L2, L3) и набор моделей ранжирования, которые можно выбрать на каждом уровне.

В файле selection_rankings_model.cpp указано, что на каждом уровне процесса можно рассматривать разные модели ранжирования. Примерно так работают нейронные сети. Каждый уровень — это аспект, который завершает операции, и их комбинированные вычисления дают переупорядоченный список документов, который в конечном итоге отображается в виде поисковой выдачи. Я продолжу более глубокое погружение в MatrixNet, когда у меня будет больше времени. Для тех, кому нужен краткий обзор, ознакомьтесь с патентом ранжирования результатов поиска.

А пока давайте рассмотрим некоторые интересные факторы ранжирования.

Топ-5 факторов начального ранжирования с отрицательным весом

Ниже приводится список факторов начального ранжирования с наибольшим отрицательным весом с их весами и кратким пояснением, основанным на их описаниях, переведенных с русского языка.

  1. FI_ADV: -0,2509284637 -Этот фактор определяет, есть ли на странице реклама любого рода, и назначает самый высокий взвешенный штраф за один фактор ранжирования.
  2. FI_DATER_AGE: -0,2074373667 — этот коэффициент представляет собой разницу между текущей датой и датой документа, определенной функцией датирования. Значение равно 1, если дата документа совпадает с сегодняшней, 0, если документ старше 10 лет или если дата не определена. Это говорит о том, что Яндекс отдает предпочтение более старому контенту.
  3. FI_QURL_STAT_POWER: -0,1943768768 — этот коэффициент представляет собой количество показов URL-адреса, связанное с запросом. Похоже, они хотят понизить URL-адрес, который появляется во многих поисковых запросах, чтобы повысить разнообразие результатов.
  4. FI_COMM_LINKS_SEO_HOSTS: -0,1809636391 — этот коэффициент представляет собой процент входящих ссылок с «коммерческим» якорным текстом. Коэффициент возвращается к 0,1, если доля таких ссылок превышает 50%, в противном случае устанавливается в 0,
  5. FI_GEO_CITY_URL_REGION_COUNTRY: -0,168645758 — этот фактор — географическое совпадение документа и страны, из которой пользователь выполнял поиск. Это не совсем понятно, если 1 означает, что документ и страна совпадают.

Таким образом, эти факторы показывают, что для наилучшего результата вам следует:

  • Избегать рекламы.
  • Обновляйте старый контент, а не создавайте новые страницы.
  • Убедитесь, что большинство ваших ссылок имеют фирменный анкорный текст.

Все остальное в этом списке находится вне вашего контроля.

Топ-5 положительно взвешенных факторов начального ранжирования

В дополнение, вот список положительных факторов ранжирования с наибольшим весом.

  1. FI_URL_DOMAIN_FRACTION: +0,5640952971 — этот фактор представляет собой странное маскирующее перекрытие запроса по сравнению с доменом URL-адреса. В качестве примера приведена Челябинская лотерея, сокращенно chelloto. Чтобы вычислить это значение, Яндекс находит перекрытые трехбуквенные слова (че, хел, лот, оло), смотрит, какая доля всех трехбуквенных сочетаний приходится на доменное имя.
  2. FI_QUERY_DOWNER_CLICKS_COMBO: +0,3690780393 — Описание этого фактора таково: «умное сочетание FRC и псевдо-CTR». Непосредственных указаний на то, что такое FRC, нет.
  3. FI_MAX_WORD_HOST_CLICKS: +0.3451158835 — этот фактор кликабельность самого важного слова в домене. Например, для всех запросов, в которых есть слово «википедия», нажмите на страницы википедии.
  4. FI_MAX_WORD_HOST_YABAR: +0.3154394573 — В описании фактора указано «наиболее характерное слово запроса, соответствующее сайту, согласно бару». Я предполагаю, что это означает ключевое слово, которое чаще всего ищут в панели инструментов Яндекса, связанную с сайтом.
  5. FI_IS_COM: +0.2762504972 — Дело в том, что домен .COM.

Другими словами:

  • Играйте в словесные игры со своим доменом.
  • Убедитесь, что это точка ком.
  • Поощряйте людей искать ваши целевые ключевые слова в Яндекс Баре.
  • Продолжайте получать клики.

Существует множество неожиданных начальных факторов ранжирования

Что более интересно в начальных взвешенных факторах ранжирования, так это неожиданные факторы. Ниже приводится список из семнадцати выделяющихся факторов.

  1. FI_PAGE_RANK: +0,1828678331 — PageRank — 17-й по значимости фактор в Яндексе. Ранее они полностью удалили ссылки из своей системы ранжирования, поэтому неудивительно, насколько низко она находится в списке.
  2. FI_SPAM_KARMA: +0.00842682963 — Спам-карма названа в честь «антиспамеров» и представляет собой вероятность того, что хост является спамом; на основе информации Whois
  3. FI_SUBQUERY_THEME_MATCH_A: +0,1786465163 — Насколько тесно тематически совпадают запрос и документ. это 19й наивысший взвешенный фактор.
  4. FI_REG_HOST_RANK: +0,1567124399 — у Яндекса есть фактор ранжирования хоста (или домена).
  5. FI_URL_LINK_PERCENT: +0,08940421124 — Отношение ссылок, анкорный текст которых является URL-адресом (а не текстом), к общему количеству ссылок.
  6. FI_PAGE_RANK_UKR: +0. 08712279101 — Есть конкретный украинский PageRank
  7. FI_IS_NOT_RU: +0.08128946612 — Хорошо, если домен не .RU. Судя по всему, русский поисковик не доверяет русским сайтам.
  8. FI_YABAR_HOST_AVG_TIME2: +0,07417219313 — это среднее время пребывания, согласно ЯндексБар
  9. FI_LERF_LR_LOG_RELEV: +0,06059448504 — это релевантность ссылки на основе качества каждой ссылки
  10. FI_NUM_SLASHES: +0,05057609417 — количество косых черт в URL является фактором ранжирования.
  11. FI_ADV_PRONOUNS_PORTION: -0,001250755075 — Доля местоимений на странице.
  12. FI_TEXT_HEAD_SYN:   -0.01291908335 — Наличие в заголовке слов [запрос] с учетом синонимов
  13. FI_PERCENT_FREQ_WORDS: -0.02021022114 – Процент количества слов, которые являются 200 наиболее часто встречающимися словами языка, от количества всех слов текста.
  14. FI_YANDEX_ADV: -0,09426121965 – Уточняя неприязнь к рекламе, Яндекс наказывает страницы с рекламой Яндекса.
  15. FI_AURA_DOC_LOG_SHARED: -0,09768630485 — логарифм количества черепиц (областей текста) в документе, которые не уникальны.
  16. FI_AURA_DOC_LOG_AUTHOR: -0.09727752961 – Логарифм количества гонтов, на которых данный владелец документа признан автором.
  17. FI_CLASSIF_IS_SHOP: -0.1339319854 — Судя по всему, Яндекс будет меньше любить вас, если ваша страница — магазин.

Главный вывод из рассмотрения этих странных факторов ранжирования и множества факторов, доступных в кодовой базе Яндекса, заключается в том, что существует множество вещей, которые могут быть факторами ранжирования.

Я подозреваю, что заявленные Google «200 сигналов» на самом деле представляют собой 200 классов сигналов, где каждый сигнал является составным, состоящим из многих других компонентов. Во многом так же, как в Google Analytics есть параметры со многими связанными показателями, в поиске Google, вероятно, есть классы сигналов ранжирования, состоящие из многих функций.

Яндекс очищает Google, Bing, YouTube и TikTok

Кодовая база также показывает, что у Яндекса есть много парсеров для других веб-сайтов и их соответствующих сервисов. Для жителей Запада наиболее заметными из них являются те, которые я перечислил в заголовке выше. Кроме того, у Яндекса есть парсеры для множества незнакомых мне сервисов, а также парсеры для его собственных сервисов.

Что сразу бросается в глаза, так это то, что синтаксические анализаторы полностью укомплектованы. Извлекается каждый значимый компонент поисковой выдачи Google. На самом деле, любой, кто рассматривает возможность парсинга любого из этих сервисов, может сделать все возможное, чтобы просмотреть этот код.

Существует другой код, который указывает, что Яндекс использует некоторые данные Google как часть расчетов DSSM, но сами по себе 83 названных Google фактора ранжирования ясно показывают, что Яндекс довольно сильно опирался на результаты Google.

Очевидно, что Google никогда не станет копировать результаты Bing из другой поисковой системы и не будет полагаться на нее для расчетов основного рейтинга.

Яндекс имеет анти-SEO верхние границы для некоторых факторов ранжирования

315 факторов ранжирования имеют пороговые значения, при которых любое вычисленное значение, превышающее это, указывает системе, что эта функция страницы переоптимизирована. 39 из этих факторов ранжирования являются частью первоначально взвешенных факторов, которые могут препятствовать включению страницы в первоначальный список публикаций. Вы можете найти их в электронной таблице, на которую я дал ссылку выше, отфильтровав по столбцу «Коэффициент ранжирования» и «Анти-SEO».

С концептуальной точки зрения не будет надуманным ожидать, что все современные поисковые системы устанавливают пороговые значения для определенных факторов, которыми оптимизаторы исторически злоупотребляли, таких как анкорный текст, CTR или наполнение ключевыми словами. Например, говорят, что Bing использует злоупотребление мета-ключевыми словами как негативный фактор.

Яндекс продвигает «Vital Hosts»

В кодовой базе Яндекса есть ряд механизмов повышения. Это искусственные улучшения определенных документов, чтобы обеспечить более высокие оценки при рассмотрении для ранжирования.

Ниже приведен комментарий «мастера повышения», в котором говорится, что более мелкие файлы лучше всего выигрывают от алгоритма повышения.

Есть несколько типов бустов; Я видел один буст, связанный со ссылками, и я также видел серию «HandJobBoosts», которые, я могу только предположить, являются странным переводом «ручных» изменений.

Один из этих бонусов, который показался мне особенно интересным, связан с «Жизненно важными хостами». Где важным хостом может быть любой указанный сайт. В переменных конкретно упоминается NEWS_AGENCY_RATING, что наводит меня на мысль, что Яндекс дает повышение, которое искажает его результаты в пользу определенных новостных организаций.

Если не вдаваться в геополитику, это очень отличается от Google тем, что они были непреклонны в отношении того, чтобы не вводить подобные предубеждения в свои системы ранжирования.

Структура сервера документов

Кодовая база показывает, как документы хранятся на сервере документов Яндекса. Это полезно для понимания того, что поисковая система не просто делает копию страницы и сохраняет ее в своем кеше, она фиксирует различные функции в качестве метаданных, которые затем используются в последующем процессе ранжирования.

На приведенном ниже снимке экрана выделено подмножество тех функций, которые особенно интересны. Другие файлы с SQL-запросами предполагают, что сервер документов имеет около 200 столбцов, включая дерево DOM, длину предложений, время выборки, серию дат и оценку защиты от спама, цепочку перенаправления и информацию о том, переведен ли документ. Самый полный список, который мне встречался, находится в файле /robot/rthub/yql/protos/web_page_item.proto.

Что самое интересное в подмножестве здесь, так это количество используемых симхэшей. Симхэши — это числовые представления контента, и поисковые системы используют их для молниеносного сравнения для определения дублирующегося контента. В архиве роботов есть различные экземпляры, указывающие на то, что дублированный контент явно понижен.

Кроме того, в рамках процесса индексации кодовая база включает TF-IDF, BM25 и BERT в конвейере обработки текста. Непонятно, почему все эти механизмы существуют в коде, потому что в их использовании есть некоторая избыточность.

Кодовая база также содержит много информации о факторах ссылок и о том, как ссылки расставляются по приоритетам.

Калькулятор ссылочного спама Яндекса учитывает 89 факторов. Все, что помечено как SF_RESERVED, устарело. Там, где это предусмотрено, вы можете найти описания этих факторов в таблице Google, указанной выше.

Примечательно, что у Яндекса есть рейтинг хоста и некоторые баллы, которые, по-видимому, сохраняются в течение длительного времени после того, как сайт или страница заработали репутацию спама.

Еще одна вещь, которую делает Яндекс, — это просмотр копии на домене и определение наличия дублированного контента с этими ссылками. Это могут быть размещения ссылок по всему сайту, ссылки на дубликаты страниц или просто ссылки с одинаковым анкорным текстом с одного и того же сайта.

Это показывает, насколько тривиально не учитывать несколько ссылок из одного и того же источника, и разъясняет, насколько важно нацеливаться на большее количество уникальных ссылок из более разнообразных источников.

Что мы можем применить от Яндекса к тому, что мы знаем о Google?

Естественно, этот вопрос до сих пор волнует всех. Хотя, безусловно, между Яндексом и Google есть много аналогов, по правде говоря, только инженер-программист Google, работающий над поиском, может окончательно ответить на этот вопрос.

Но это неправильный вопрос.

Действительно, этот код должен помочь нам расширить наши представления о современном поиске. Коллективное понимание поиска во многом основано на том, что SEO-сообщество узнало в начале 2000-х посредством тестирования и из уст поисковых инженеров, когда поиск был гораздо менее непрозрачным. Это, к сожалению, не поспевает за быстрым темпом инноваций.

Понимание многих особенностей и факторов утечки Яндекса должно дать больше гипотез о вещах, которые нужно проверить и рассмотреть для ранжирования в Google. Они также должны ввести больше вещей, которые можно анализировать и измерять с помощью SEO-сканирования, анализа ссылок и инструментов ранжирования.

Например, мера косинусного сходства между запросами и документами, использующими встраивание BERT, может быть полезна для понимания по сравнению со страницами конкурентов, поскольку это то, что делают сами современные поисковые системы.

Во многом так же, как журналы поиска AOL уводят нас от угадывания распределения кликов в поисковой выдаче, кодовая база Яндекса уводит нас от абстрактного к конкретному, и наши утверждения «это зависит» могут быть лучше квалифицированы.

С этой целью эта кодовая база является подарком, который будет продолжаться. Прошли только выходные, а мы уже почерпнули очень убедительные выводы из этого кода.

Я предполагаю, что некоторые амбициозные SEO-инженеры, располагающие гораздо большим количеством свободного времени, будут продолжать копаться и, возможно, даже дополнять недостающее, чтобы скомпилировать эту штуку и заставить ее работать. Я также считаю, что инженеры различных поисковых систем также изучают и анализируют инновации, на которых они могут учиться и добавлять в свои системы.

Одновременно юристы Google, вероятно, готовят агрессивные письма о прекращении и воздержании, связанные со всей очисткой данных.

Мне не терпится увидеть эволюцию нашего пространства, которой руководят любознательные люди, которые максимально используют эту возможность.

Но, эй, если получение информации из фактического кода не имеет для вас ценности, вы можете вернуться к чему-то более важному, например, спорить о поддоменах и подкаталогах.

Мнения, высказанные в этой статье, принадлежат приглашенному автору и не обязательно принадлежат Search Engine Land. Штатные авторы перечислены здесь.

новая инициатива Microsoft и Яндекс по доставке контента в поисковые системы

Search Engine Land » SEO » IndexNow — новая инициатива Microsoft и Яндекс по доставке контента в поисковые системы

Барри Шварц, 18 октября 2021 г., 12:30 вечера | Время чтения: 5 минут

Сегодня Microsoft и Яндекс объявили о новой инициативе под названием IndexNow, протоколе, в котором может участвовать любая поисковая система, чтобы позволить владельцам сайтов мгновенно индексировать свои страницы и контент поисковой системой. В настоящее время Microsoft Bing и Yandex являются двумя поисковыми системами, полностью участвующими в инициативе, но другие могут принять этот открытый протокол.

IndexNow позволяет «веб-сайтам легко уведомлять поисковые системы о создании, обновлении или удалении содержимого их веб-сайтов», — написала Microsoft в своем блоге. По словам компании, цель состоит в том, чтобы сделать Интернет «более эффективным», уменьшив зависимость от роботов поисковых систем, которые вынуждены выходить в Интернет и сканировать каждый найденный URL-адрес. Вместо этого целью владельцев сайтов является передача этих деталей и изменений URL-адресов поисковым системам напрямую. «Сообщая поисковым системам, был ли изменен URL-адрес, владельцы веб-сайтов дают четкий сигнал, помогая поисковым системам расставлять приоритеты при сканировании этих URL-адресов, тем самым ограничивая потребность в исследовательском сканировании для проверки того, изменилось ли содержимое», — пишет Microsoft.

Как это работает. Протокол очень прост — все, что вам нужно сделать, это создать ключ на своем сервере, а затем опубликовать URL-адрес в поисковой системе, чтобы уведомить поисковые системы, участвующие в IndexNow, об изменении. Шаги включают:

  1. Сгенерируйте ключ, поддерживаемый протоколом, с помощью онлайн-инструмента генерации ключей.
  2. Разместите ключ в текстовом файле с именем, содержащим значение ключа в корневом каталоге вашего веб-сайта.
  3. Начните отправлять URL-адреса, когда ваши URL-адреса будут добавлены, обновлены или удалены. Вы можете отправить один URL-адрес или набор URL-адресов за вызов API.

Отправить один URL-адрес просто, отправив простой HTTP-запрос, содержащий измененный URL-адрес и ваш ключ.
https://www.bing.com/IndexNow?url=url-changed&key=your-key, и то же самое будет работать при использовании https://yandex.com/indexnow?url=url-changed&key=your-key

Более подробные инструкции можно найти на сайте Microsoft Bing IndexNow или на веб-сайте протокола IndexNow.

Они работают вместе. Если вы используете метод Bing, то и Bing, и Яндекс (или другие участвующие поисковые системы) получат обновление. Вам не нужно отправлять оба URL-адреса Bing и Яндекса, вам просто нужно выбрать один, и все поисковые системы, которые являются частью этой инициативы, уловят это изменение.

Поисковые системы совместно используют эту систему IndexNow, поэтому, если вы уведомите одну из них, эта поисковая система немедленно повторно пропингует друг друга в фоновом режиме, уведомив их всех. Фактически, требованием IndexNow является то, что любые поисковые системы, использующие протокол IndexNow, должны согласиться с тем, что представленные URL-адреса будут автоматически переданы всем другим участвующим поисковым системам. Чтобы участвовать, поисковые системы должны иметь заметное присутствие по крайней мере на одном рынке, сообщила Microsoft Search Engine Land.

Аналогично API отправки URL-адресов Bing. Это похоже на API отправки URL-адресов Bing? Да, в том смысле, что цель состоит в том, чтобы снизить требования к сканированию и повысить эффективность. Но отличается тем, что это совершенно другой протокол. Если вы используете API отправки URL-адресов Bing или API отправки контента Bing, технически Bing немедленно получит ваши URL-адреса и изменения контента, но эти два API не работают с протоколом IndexNow, поэтому другие поисковые системы не получат изменений.

Исчезнут ли эти API, если и когда инициатива IndexNow станет более популярной? Это неясно. API отправки URL будет несколько избыточным для IndexNow, но API отправки контента уникален.

Интеграция. IndexNow получает поддержку сторонних веб-сайтов, таких как eBay, а также принадлежащих Microsoft LinkedIn, MSN и GitHub, для интеграции с API IndexNow. Microsoft заявила, что многие из них приняли API отправки URL-адресов Microsoft Bing Webmaster и планируют переход на IndexNow.

Корпорация Майкрософт призывает все системы управления веб-контентом внедрить IndexNow, чтобы помочь своим пользователям немедленно индексировать последний контент своих веб-сайтов и минимизировать нагрузку сканирования на свои веб-сайты. Фактически, Microsoft предоставила код WordPress, который она может использовать для интеграции IndexNow в свою CMS. Wix, Duda и другие компании также планируют вскоре интегрироваться с IndexNow. CDN, такие как CloudFlare и Akamai, также работают с протоколом IndexNow, как и инструменты SEO, такие как Botify, OnCrawl и другие.

Что насчет Google. Нам сказали, что Google известно об инициативе IndexNow, и компанию попросили принять участие. На данный момент Google не является активным участником IndexNow.

Почему это нас волнует. Мгновенная индексация — это мечта SEO-специалистов, когда речь идет о предоставлении поисковым системам самого свежего контента на сайте. Google очень строго относится к API индексации своих приложений, который только сейчас используется для объявлений о вакансиях и контента прямых трансляций. Поэтому, хотя кажется, что Google может не участвовать в IndexNow в ближайшем будущем, поисковые системы, такие как Microsoft Bing и Yandex, стремятся активно продвигать эту инициативу.

Протокол очень прост, и разработчику требуется очень мало усилий, чтобы добавить его на ваш сайт, поэтому имеет смысл реализовать его, если вы заботитесь о быстрой индексации. Кажется, что все больше и больше поисковых систем будут участвовать, но с точки зрения большой, Google, это остается неясным.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *