Блог за настройките на WordPress плъгини и оптимизация за търсачки за амбициозни уебмастъри. Индекс за търсене Индекс нова страница в Yandex

Какво е индексиране? Това е процес на робот, който получава съдържанието на страниците на вашия сайт и включва това съдържание в резултатите от търсенето. Ако погледнем числата, тогава базата данни на робота за индексиране съдържа трилиони адреси на страници на уебсайтове. Роботът иска милиарди такива адреси всеки ден.

Но целият този голям процес на индексиране в Интернет може да бъде разбит на малки стъпки:


Първо, роботът трябва да знае за появата на страница на вашия сайт. Например, чрез индексиране на други страници в Интернет, намиране на връзки или изтегляне на зададения nmp. Научихме за страницата, след което планираме да обходим тази страница, да изпратим данни до вашия сървър за заявка за тази страница на сайта, да получим съдържание и да го включим в резултатите от търсенето.

Целият този процес е процес на размяна на робот за индексиране с вашия сайт. Ако заявките, изпратени от индексиращия робот, практически не се променят, а се променя само адресът на страницата, тогава отговорът на вашия сървър на заявката за страница от робота зависи от много фактори:

  • от настройките на вашата CMS;
  • от настройките на хостинг доставчика;
  • от работата на междинен доставчик.

Този отговор просто се променя. На първо място, когато заявявате страница, робот от вашия сайт получава следния отговор на услугата:


Това са HTTP заглавки. Те съдържат различна служебна информация, която позволява на робота да разбере прехвърлянето на какво съдържание сега ще се осъществява.

Бих искал да се съсредоточа върху първото заглавие - това е кодът за отговор на HTTP, който показва на робота за индексиране състоянието на страницата, която роботът е поискал.

Има няколко десетки такива кодове за състояние на HTTP:


Ще ви разкажа за най -популярните. Най-често срещаният код за отговор е HTTP-200. Страницата е налична, може да бъде индексирана, включена в резултатите от търсенето, всичко е наред.

Обратното на този статус е HTTP-404. Страницата липсва в сайта, няма какво да се индексира, няма какво да се включи и в търсенето. Когато променяте структурата на сайтове и променяте адресите на вътрешните страници, препоръчваме да настроите сървър 301 за пренасочване. Той е този, който ще посочи на робота, че стара страницапреместени на нов адрес и е необходимо да се включи новият адрес в резултатите от търсенето.

Ако съдържанието на страницата не се е променило от последното посещение на робота, най-добре е да върнете кода HTTP-304. Роботът ще разбере, че няма нужда от актуализиране на страници в резултатите от търсенето и прехвърлянето на съдържание също няма да се случи.

Ако вашият сайт е достъпен за кратко време, например, когато извършвате някаква работа на сървъра, най-добре е да конфигурирате HTTP-503. Той ще посочи на робота, че сайтът и сървърът в момента са недостъпни, трябва да отидете малко по -късно. В случай на краткосрочна липса, това ще предотврати изключването на страници от резултатите от търсенето.

В допълнение към тези HTTP кодове, състояния на страници, вие също трябва да получите директно съдържанието на самата страница. Ако за обикновен посетител страницата изглежда така:


това са снимки, текст, навигация, всичко е много красиво, тогава за индексиращ робот всяка страница е просто набор от изходен код, HTML код:


Различни мета тагове, текстово съдържание, връзки, скриптове, много информация. Роботът го събира и включва в резултатите от търсенето. Изглежда, че всичко е просто, те поискаха страница - получиха статус, получиха съдържание, включени в търсенето.

Но не е за нищо, че услугата за търсене в Yandex получава повече от 500 писма от уеб администратори и собственици на сайтове, че са възникнали определени проблеми с отговора на сървъра.

Всички тези проблеми могат да бъдат разделени на две части:

Това са проблеми с кода на HTTP отговор и проблеми с HTML кода, с непосредственото съдържание на страниците. Причините за тези проблеми могат да бъдат много. Най -често срещаното е блокирането на робота за индексиране от хостинг доставчика.


Например стартирахте уебсайт, добавихте нов раздел. Роботът започва да посещава вашия сайт по -често и увеличава натоварването на сървъра. Хостинг доставчикът вижда това на своите монитори, блокира робота за индексиране и следователно роботът няма достъп до вашия сайт. Отивате до вашия ресурс - всичко е наред, всичко работи, страниците са хубави, всичко се отваря, всичко е супер, докато роботът не може да индексира сайта. Когато сайтът временно не е наличен, например, ако сте забравили да платите Име на домейн, сайтът е деактивиран от няколко дни. Роботът идва на сайта, той е недостъпен, при такива условия той може да изчезне от резултатите от търсенето буквално след известно време.

Неправилните настройки на CMS, например при актуализиране или преминаване към друга CMS, при актуализиране на дизайна, също могат да доведат до изчезване на страниците на вашия сайт от резултатите от търсенето, ако настройките са неправилни. Например наличието на забранителен мета маркер в програмен кодстраници на сайта, неправилна настройка на каноничния атрибут. Уверете се, че след всички промени, които правите в сайта, страниците са достъпни за робота.

Инструментът в Yandex ще ви помогне с това. Уеб администратор за проверка на отговора на сървъра:


Можете да видите какви HTTP заглавки вашият сървър връща на робота, директно съдържанието на страниците.


Разделът "индексиране" съдържа статистика, където можете да видите кои страници са изключени, динамиката на промените в тези показатели, да направите различни сортиране и филтриране.


Също така днес говорих за този раздел, раздел "диагностика на сайта". Ако вашият сайт е станал недостъпен за робот, ще получите съответно известие и препоръки. Как може да се поправи това? Ако няма такива проблеми, сайтът е достъпен, отговаря на 200 кода, съдържа правилно съдържание, след което роботът стартира в автоматичен режимпосетете всички страници, които научава. Това не винаги води до желаните последици, така че дейността на робота може да бъде ограничена по определен начин. За това има файл robots.txt. Ще говорим за това в следващия раздел.

Robots.txt

Самият файл robots.txt е малък Текстов документ, той се намира в основната папка на сайта и съдържа строги правила за робота за индексиране, които трябва да се спазват при обхождане на сайта. Предимството на файла robots.txt е, че не се нуждаете от специални или специализирани познания, за да го използвате.

Достатъчно е да отворите Notepad, да въведете определени правила за формата и след това просто да запишете файла на сървъра. В рамките на един ден роботът започва да използва тези правила.

Ако вземете пример за прост файл robots.txt, ето го, точно на следващия слайд:


Директивата User-Agent: ”показва за кои роботи е предназначено правилото, позволявайки / отказвайки директиви и помощни директиви на Sitemap и Host. Малко теория, искам да премина към практиката.

Преди няколко месеца исках да си купя крачкомер, затова се обърнах към Yandex. Пазар за помощ при избор. Преместено от начална страница Yandex към Yandex. Market и стигна до главната страница на услугата.


По -долу можете да видите адреса на страницата, на която отидох. Идентификаторът на мен, като потребител на сайта, също е добавен към адреса на самата услуга.

След това отидох в раздела "каталог"


Избрах желания подраздел и настроих параметрите за сортиране, цена, филтър, как да сортирам, производител.

Получих списък с продукти и адресът на страницата вече е нараснал.

Отидох до желания продукт, щракнах върху бутона „добави в количката“ и продължих дизайна.

По време на краткото ми пътуване адресите на страниците се промениха по определен начин.


Към тях бяха добавени параметри на услугата, които ме идентифицираха като потребител, настроиха сортиране, посочиха на собственика на сайта, откъдето отидох на тази или онази страница на сайта.

Такива страници, страници за услуги, мисля, че няма да бъдат много интересни за потребителите на търсачката. Но ако са достъпни за индексиращия робот, те могат да влязат в търсенето, тъй като роботът всъщност се държи като потребител.

Той отива на една страница, вижда връзка, върху която може да се кликне, отива до нея, зарежда данните в базата данни на робота и продължава такова обхождане на целия сайт. Същата категория такива адреси може да включва лични данни на потребители, например информация за доставка или информация за контакт на потребителите.

Естествено, по -добре е да ги забраните. Тук файлът robots.txt ще ви помогне. Можете да посетите вашия сайт тази вечер в края на уеб администратора, да кликнете, за да видите кои страници са действително налични.

За да проверите robots.txt, в уеб администратора има специален инструмент:


Можете да изтеглите, въведете адресите на страниците, да видите дали те са достъпни за робота или не.


Направете някои промени, вижте как роботът реагира на тези промени.

Грешки при работа с robots.txt

В допълнение към подобно положително въздействие - затварянето на страници за услуги, robots.txt, ако се използва неправилно, може да изиграе жестока шега.

Първо, най -често срещаният проблем при използването на robots.txt е затварянето на страниците, които наистина са необходими на сайта, тези, които трябва да се търсят и показват при заявки. Преди да направите промени в robots.txt, не забравяйте да проверите дали страницата, която искате да затворите, не участва в заявките за търсене. Може би страница с някои параметри е в резултатите от търсенето и посетителите идват до нея от търсенето. Затова не забравяйте да проверите, преди да използвате и модифицирате robots.txt.

Второ, ако вашият сайт използва URL адреси на кирилица, няма да можете да ги посочите директно в robots.txt, те трябва да бъдат кодирани. Тъй като robots.txt е международен стандарт, всички роботи за индексиране ги следват и определено ще трябва да бъдат кодирани. Кирилицата не може да бъде посочена изрично.

Третият най -популярен проблем са различните правила за различни роботи от различни търсачки. За един индексиращ робот всички страници за индексиране бяха затворени, за втория нищо не беше затворено. В резултат на това се справяте добре в една търсачка, желаната страница е в търсенето, а в друга търсачка може да има боклук, различни страници за боклук и нещо друго. Не забравяйте да следвате, ако зададете забрана, това трябва да се направи за всички роботи за индексиране.

Четвъртият най-често срещан проблем е използването на директивата Crawl-delay, когато не е необходимо. Тази директива ви позволява да влияете върху чистотата на заявките от робота за индексиране. Това е практически пример, малък сайт, поставете го на малък хостинг, всичко е наред. Добавихме голям каталог, роботът дойде, видя куп нови страници, започва да посещава сайта по -често, увеличава натоварването, изтегля го и сайтът става недостъпен. Зададохме директивата Crawl-delay, роботът вижда това, намалява натоварването, всичко е наред, сайтът работи, всичко е перфектно индексирано и е в резултатите от търсенето. След известно време сайтът се разраства още повече, прехвърля се на нов хостинг, който е готов да се справи с тези искания, с голяма сумаискания и те забравят да премахнат директивата за забавяне на обхождането. В резултат на това роботът осъзнава, че много страници са се появили на вашия сайт, но не може да ги индексира просто поради директивата. Ако някога сте използвали директивата за забавяне на обхождане, проверете дали сега я няма и услугата ви е готова да се справи с натоварването от робота за индексиране.


В допълнение към описаната функционалност, файлът robots.txt ви позволява също да решите две много важни задачи - да се отървете от дубликатите в сайта и да посочите адреса на основното огледало. Точно за това ще говорим в следващия раздел.

Дубове


Под дубликати имаме предвид няколко страници от един и същ сайт, които съдържат абсолютно идентично съдържание. Най -често срещаният пример са страници със и без наклонена черта в края на адреса. Също така дубликат може да се разбира като един и същ продукт в различни категории.

Например, ролерите могат да бъдат за момичета, за момчета, един и същ модел може да бъде в две секции едновременно. И трето, това са страници с незначителен параметър. Както в примера с Yandex. От пазара тази страница е "идентификатор на сесия", като такъв параметър не променя съдържанието на страницата по принцип.

За да намерите дубликати, вижте до кои страници има достъп роботът, можете да използвате Yandex. Уебмастър.


В допълнение към статистиката има и адресите на страниците, които роботът е изтеглил. Виждате кода и последното попадение.

Проблемите, които се удвояват, водят до

Защо дубликатите са толкова лоши?

Първо, роботът започва достъп до абсолютно идентични страници на сайта, което създава допълнително натоварване не само на вашия сървър, но и влияе върху обхождането на сайта като цяло. Роботът започва да обръща внимание на дублиращи се страници, а не на страници, които трябва да бъдат индексирани и включени в резултатите от търсенето.


Вторият проблем е, че дублиращите се страници, ако са достъпни за робота, могат да влязат в резултатите от търсенето и да се конкурират с основните страници за заявки, което, разбира се, може да повлияе негативно на намирането на сайт за определени заявки.

Как можете да се справите с дубликати?

На първо място, препоръчвам да използвате маркера „каноничен“ за да насочи робота към главната, канонична страница, която трябва да се индексира и търси.

Във втория случай можете да използвате пренасочване на сървър 301 например за ситуации с наклонена черта в края на адреса и без наклонена черта. Настройте пренасочване - без дубликати.


И трето, както казах, е файлът robots.txt. Можете да използвате както забранителни директиви, така и директивата Clean-param, за да се отървете от незначителни параметри.

Огледала на сайта

Втората задача, която robots.txt може да реши, е да насочи робота към адреса на основното огледало.


Огледалата са група сайтове, които са абсолютно идентични, като дубликати, само два различни сайта. Уеб администраторите обикновено се сблъскват с огледала в два случая - когато искат да се преместят в нов домейн или когато потребителят трябва да предостави няколко адреса на уебсайта.

Например, знаете, че потребителите, когато въвеждат вашия адрес, съдържат адреса на вашия сайт адресната лента, често правят същата грешка - въвеждат се, слагат грешен символ или нещо друго. Можете да закупите допълнителен домейн, за да покажете на потребителите не мъниче от хостинг доставчик, а да покажете сайта, на който наистина искат да отидат.

Нека се спрем на първата точка, защото именно с него най -често възникват проблеми при работа с огледала.

Целият процес на преместване ви съветвам да извършите следвайки инструкцията... Малко ръководство, което ще ви помогне да избегнете различни проблемипри преминаване към ново име на домейн:

Първо, трябва да направите сайтовете достъпни за робота за индексиране и да поставите абсолютно идентично съдържание върху тях. Също така се уверете, че роботът знае за съществуването на сайтовете. Най -лесният начин е да ги добавите към Yandex. Уеб администратор и проверете техните права.

Второ, използвайки директивата Host, насочете робота към адреса на основното огледало - този, който трябва да бъде индексиран и намерен в резултатите от търсенето.

Очакваме залепването и прехвърлянето на всички индикатори от стария сайт към новия.


След това вече можете да настроите пренасочване от стария адрес към новия. Прости инструкции, ако се движите, не забравяйте да ги използвате. Надявам се да няма проблеми с
движещ се.

Но, естествено, грешки възникват при работа с огледала.

На първо място, основният проблем е липсата на изрични инструкции за робота за индексиране до адреса на основното огледало, адреса, който трябва да бъде в търсенето. Проверете на сайтовете си дали имат директива за хост в своя robots.txt и тя води точно до адреса, който искате да видите в търсенето.

Вторият най -често срещан проблем е използването на пренасочване за промяна на главното огледало в съществуваща група огледала. Какво се случва? Старият адрес, тъй като пренасочва, не се индексира от робота, той е изключен от резултатите от търсенето. В същото време новият сайт не влиза в търсенето, тъй като е неосновно огледало. Губите трафик, губите посетители, мисля, че никой не се нуждае от това.


И третият проблем е недостъпността на едно от огледалата при движение. Най -честият пример в тази ситуация е, когато съдържанието на сайта е копирано на нов адрес, а старият адрес е просто деактивиран, името на домейна не е платено и става недостъпно. Естествено, такива сайтове няма да бъдат залепени заедно, те трябва да са достъпни за робота за индексиране.

Полезни връзки в работата:

  • | Повече ▼ полезна информацияможете да намерите в услугата Yandex.Help.
  • Всички инструменти, за които говорих и дори повече - има бета версия на Yandex.Webmaster.

Отговори на въпроси

„Благодаря ви за доклада. Трябва ли robots.txt да затвори индексирането на css за робота или не? "

В момента не препоръчваме да ги затваряте. Да, CSS, JavaScript е по -добре да напуснем, защото сега работим, за да може роботът за робота да разпознава както скриптове на вашия сайт, така и стилове и да вижда посетител от обикновен браузър.

„Кажете ми, ако URL адресите на адресите на сайта са еднакви, старият и новият - добре ли е?“

Всичко е наред. По принцип просто имате актуализация на дизайна, добавяйки малко съдържание.

„Сайтът има категория и се състои от няколко страници: наклонена черта, страница 1, страница 2, до 10, например. Всички страници имат текст от една категория и се оказва дубликат. Дали този текст ще бъде дубликат или ще е необходимо по някакъв начин да се затвори, нов индекс на втората и следващите страници? "

На първо място, тъй като страницирането на първата страница и съдържанието на втората страница обикновено са различни, те няма да бъдат дублирани. Но трябва да очаквате, че втората, третата и следващите страници за страници могат да влязат в търсенето и да покажат всяка подходяща заявка. По -добре в страниците за разбивка на страници, бих препоръчал да използвате каноничния атрибут, в най -добрия случай - на страницата, на която се събират всички продукти, така че роботът да не включва страници с разбивка на страници в търсенето. Хората много често използват канонични на първата страница на страницата. Роботът идва на втората страница, вижда продукта, вижда текста, не включва страници в търсенето и разбира поради атрибута, че е необходимо да се включи първата страница на странициране в резултатите от търсенето. Използвайте канонично и затворете самия текст, мисля, че не е необходимо.

Източник (видео): Как да настроите индексиране на сайт- Александър Смирнов

Магомед Чербижев

От този материал ще научите:

  • Какво е индексиране
  • Как да добавите сайт към базата данни
  • Как да ускорим индексирането

Какво е индексиране?

Вече ви разказахме за... Накратко, това са отговори на потребителски заявки, които те въвеждат в търсачката. Ако чукнете „купете слон“ - вземете сайтове, които предлагат слонове на едро и дребно. Yandex или Google няма да показват пластмасови прозорци или да се обаждат на момичета за такива искания. Сега внимание, въпросът: всеки сайт влиза ли в резултатите от търсенето? Не, не всички. Най -малкото е необходимо търсачките да знаят за съществуването на този сайт и за съдържанието, което е публикувано на него. В края на краищата, как можете да покажете нещо, за което никой не знае? За това има бази данни на уебсайтове. Накратко, добавянето на сайт с неговото съдържание към тази база данни се нарича индексиране. Как работи индексирането? Роботът Yandex или Google работи по свои собствени алгоритми: търси информация за вашия сайт (тази информация включва ключови статии, текстове, снимки и т.н. - с една дума, цялото съдържание). Той е като рентгенова снимка, осветява всяка страница от сайта, анализира я, обхожда и добавя вашия сайт към базата данни. Сега ще се появи в Резултати от търсенетои се показва в отговор на заявките на потребителите. А какви позиции - лидери или външни лица - зависи от съдържанието, с което е запълнено. Разбира се, индексирането на сайтове е от съществено значение. Когато търсачките започнат да виждат вашия сайт, посетителите идват на него и растат

Как да добавите сайт към базата данни?

Да предположим, че сте създали сайта Най -добрият site.rf. Напълнихме го, разбира се, с най -доброто съдържание и с нетърпение очакваме, когато достигне върха. За да може сайтът и съдържанието да бъдат индексирани и включени в базата данни, можете да използвате два метода.
  1. Изчакайте самоиндексиране. Рано или късно роботите ще намерят вашия сайт - всичко, което трябва да направите, е да оставите активни връзки към него от други ресурси. Смята се, че колкото повече връзки, толкова по -бързо ще бъде индексирането.
  2. Добавете сайт ръчно, като попълните специален формуляр в търсачката. Там трябва да предоставите връзка към сайта и кратка информация за него. В Yandex например това се прави в услугатаУеб администратор на YandexНа страницата Подайте сигнал за нов сайт .
На същото място в уеб администратора можете след това да следите статистиката на заявките, които водят потребителите до вашия сайт. В Google всичко също е просто - можете да регистрирате сайт, като използвате връзкатаЦентър за уеб администратори на Google . Колко бързо е индексирането? Трудно е да се кажат точните цифри - това е късметът. Но едно нещо знаем със сигурност: Yandex индексира по -бавно от Google. Имаше случаи, когато индексирането в него се чакаше няколко седмици.

Как да ускорим индексирането?

Алгоритмите на търсачките са непредсказуеми и, както вече споменахме, няма точна рецепта. Можем да Ви посъветваме за доказани методи (всъщност същите, които засягат популяризирането на уебсайта в резултатите от търсенето)
  1. Уникално съдържание, което търсачките обичат толкова много. Един момент: ако сте публикували статия на уебсайт или блог и тя все още не е индексирана, всеки теоретично може да я отнеме и да я публикува. Ако на друг сайт статията е индексирана по -рано, вие сте в полет. Вашата статия ще се счита за неуникална, а състезателят ще остане в шоколад.
  2. Ясна структура на сайта. Следвайте правилото за три кликвания: можете да стигнете до всяка страница от главната страница с не повече от три кликвания. По -малко е добре, повече е по -добре не! Това ще улесни търсещите машини да индексират не само началната страница, но и други страници.
  3. Връзката с вътрешни страници е полезна както за посетителите, така и за робота.
  4. Излъчване на публикации към RSS-директории. Всички ваши публикации ще бъдат дублирани в RSS директории, където се добавят RSS емисии. Това са емисии за абониране за актуализации на блогове или сайтове, така че да получавате всичко най -ново във вашата поща. С тяхна помощ търсачката бързо ще намери новите ви статии и ще ги индексира.

Нека дадем пример за успешно индексиране

Преди седмица в един от сайтовете се появи статия за пистолет VPO-213 ... На практика няма информация за този пистолет в мрежата - той все още не се е появил в продажба. Имаше само кратка видео презентация в YouTube. Съответно текстът беше напълно уникален и почти единствен в интернет по тази тема. Около полунощ текстът беше публикуван на сайта (дори не на началната страница!) И за кратко време индексиран. В девет и половина на следващата сутрин статията беше на трето място в резултатите от търсенето на Yandex. В 9.50 тя стана първата и оттогава заема тези позиции.

В това ръководство ще разгледаме въпроса за добавянето на нашия нов сайт за индексиране към различни търсачки.

Реших да спомена как популярни търсачки, и тези, за които може да не сте чували.

Индексиране на сайтове в Yandex

За да добавите сайт за индексиране, просто въведете url на главната страница и captcha. Captcha е няколко числа, които предпазват от автоматични регистрации. След като щракнете върху бутона „добавяне“, има няколко възможни сценария за развитие на събитията.

1) Съобщението „вашият сайт е добавен“ сигнализира за успешното добавяне на ресурс към опашката за индексиране в Yandex.
2) Ако се появи надписът „Вашият хостинг не реагира“, това означава, че вашият сървър е изключен в този момент. Можете да опитате да добавите сайта по -късно или да потърсите по -добър хостинг.
3) Но ако се появи съобщение, че „посоченият URL адрес е забранен за индексиране“, тогава нещата са лоши. Това показва, че са наложени санкции на вашия ресурс под формата на забрана на сайтове. Напълно възможно е домейнът, който някога сте купили, да е имал уебсайт, който е получил санкции. С помощта на addurl уеб администраторите често проверяват сайтове за забрана в Yandex.

Индексиране на сайтове в Google (Google)

Следващото най -важно за нашия сайт е система за търсене Google (Google). Процесът на добавяне на сайт за индексиране в Google е абсолютно същият като в Yandex. Google също има своя собствена adurilka, която се намира на адрес: https://www.google.com/webmasters/tools/submit-url.

Също така трябва да въведете captcha при добавяне. Но има две разлики. Ако в Yandex можете просто да добавите url без излишни жестове, тогава в Google трябва да сте влезли в акаунта си. В противен случай няма да работи. Съответно, ако все още нямате акаунт там, ще трябва да си създадете такъв. Втората разлика между Google и Yandex е скоростта на индексиране. Google индексира сайтовете много бързо.

Индексиране на сайтове в Rambler (Rambler.ru)

Разбира се, Rambler не е това, което беше, както биха казали мнозина, и дава много малко трафик. И все пак защо трябва да се пренебрегва? Процесът на индексиране на сайт в Rambler е най -продължителният сред другите местни търсачки. Да, и адурилката му отдавна не работи, тя беше на адрес: robot.rambler.ru/cgi-bin/addsite.cgi

Той използва базата данни за търсене на Yandex от дълго време. Следователно, за да влезете в индекса Rambler.ru, достатъчно е да добавите към Yandex.

Индексиране на сайтове в Mail.ru (Поща)

Търсачката Mail.ru също има офис на уеб администратор. Добавянето на сайт за индексиране в Mail.ru става чрез формата за добавяне, която се намира на адрес: go.mail.ru/addurl

Освен това, подобно на Google, за да направите заявление за индексиране, трябва да създадете свой собствен акаунт и да влезете в него. В противен случай няма да работи. Наскоро Майл се опитва да развие своя собствени инструментиза уеб администратори.

По -горе разгледахме основните местни търсачки, в които е желателно да индексираме нашия сайт. Ще цитирам следните търсачки повече за вашата обща SEO ерудиция, отколкото за конкретни действия.

Търсачка Aport.ru (Aport)

Aport.ru някога е бил търсачка, със собствена база от индекси и adurilka. Сега от него е направена търсачка за стоки, в която можете да сравнявате цените на стоките и услугите.

Търсачка Nigma.ru (Nigma)

Nigma.ru е нашата руска интелигентна търсачка. Общият обем на трафика му е около три милиона заявки на ден. Очевидно не бива да пренебрегвате трафика от Нигма. Можете да добавите вашия сайт за индексиране към Nigma на страницата nigma.ru/index_menu.php?menu_element=add_site.

Медиен навигатор Tagoo.ru

Системата Tagoo.ru е медийна търсачка, която търси медийни данни. Това са музикално съдържание, видеоклипове и програми. За да може вашият сайт да бъде индексиран от системата Tagoo, трябва да използвате формуляра за добавяне: tagoo.ru/ru/webmaster.php?mode=add_site.

Търсачка Turtle.ru (Костенурка)

Международната търсачка Turtle търси страните от ОНД на всеки език. Ресурси, разположени в такива области на домейн като: ru, su, ua, am, az, ge, by, kz, kg, uz, md, се приемат за индексиране. За да добавите сайт за индексиране в костенурката, трябва да използвате adurilka: http://www.turtle.ru/add.html. Препоръчително е да изчакате показването на съобщението за приемане на вашия сайт. Може би не добавям, но няма да знаете.

Чуждестранни търсачки

Ако по -горе бяха местни търсачки, тогава по -долу ще има списък на чуждестранни търсачки.

Търсачка на Yahoo.com (Yahu)

Търсачката на Bing.com (Bing)

Търсачката Bing е собственост на Microsoft Corporation и е създадена да замени Търсенето на живо. Microsoft се надява, че новото дете ще бъде много по -популярно от предшественика си. Ако искате да индексирате вашия PS сайт Bing.com, можете да го направите на http://www.bing.com/toolbox/submit-site-url.

Украински търсачки

И в края на моя преглед ще цитирам две популярни търсачки в Украйна.

Украинската търсачка Meta.ua (Meta)

По редица причини търсачките не индексират всички страници на сайта или, обратно, добавят нежелани страници към индекса. В резултат на това е почти невъзможно да се намери сайт със същия брой страници в Yandex и Google.

Ако несъответствието не надвишава 10%, тогава не всеки обръща внимание на това. Но тази позиция е валидна за медийни и информационни сайтове, когато загубата на малка част от страниците не се отразява на общия трафик. Но за онлайн магазини и други търговски сайтове, липсата на страници с продукти в търсенето (дори една на всеки десет) е загуба на доход.

Ето защо е важно да проверявате индексирането на страници в Yandex и Google поне веднъж месечно, да сравнявате резултатите, да идентифицирате кои страници липсват при търсенето и да предприемете действия.

Проблем при наблюдение на индексирането

Не е трудно да видите индексираните страници. Това може да стане чрез качване на отчети в панели за уеб администратори:

  • ("Индексиране" / "Страници в търсене" / "Всички страници" / "Изтегляне на XLS / CSV таблица");

Възможности на инструмента:

  • едновременна проверка на индексирани страници в Yandex и Google (или в една PS);
  • възможност за проверка на всички URL адреси на сайта наведнъж;
  • няма ограничение за броя на URL адресите.

Особености:

  • работа „в облака“ - няма нужда да изтегляте и инсталирате софтуер или приставки;
  • качване на отчети във формат XLSX;
  • известие по пощата за края на събирането на данни;
  • съхраняване на отчети за неограничено време на сървъра PromoPult.
Споделя това