MMGP logo
Присоединяйтесь к нашему инвестиционному форуму, на котором уже 649,857 пользователей. Чтобы получить доступ ко многим закрытым разделам и начать общение - зарегистрируйтесь прямо сейчас.
Первый пост Опции темы
Старый 13.03.2007, 03:55
#1
 
Имя: Алексей
Пол: Мужской
Возраст: 42
Адрес: Россия, Москва
Инвестирую в: Свой бизнес
Регистрация: 06.07.2006
Сообщений: 10,095
Благодарностей: 13,398

награды За особые заслуги Старый писака Волшебный горшочек 
Любимая тема Литература по SEO

Предлагаю в этой теме публиковать интересные книги, статьи, заметки, обзоры по Поисковой Оптимизации.

----------------------------------------

1. книга Игоря Ашманова “Продвижение сайта в поисковых системах”
подробнее о книге здесь
скачать книгу (16 mb, формат pdf) Ifolder , Rapidshare , DepositFiles
купить книгу на Ozon.ru

Последний раз редактировалось mysilver; 02.01.2008 в 05:33.
mysilver вне форума
Старый 26.08.2007, 00:07
#2
 
Регистрация: 21.08.2007
Сообщений: 2
Благодарностей: 0
Я бы рекомендовал книжку по правильной оптимизации и продвижению сайтов Ашманова.
Реально знающий человек.
Хотя моё мнение, книжки - это хорошо, но они дадут лишь базовые знания. Алгоритмы машин, особенно Яндекса довольно часто меняются.
Здесь могут помочь специализированные форумы и свой опыт и долгие часы в анализе позиций.



------------------
Хобби: Туризм. Работа: создание сайтов , раскрутка сайтов
Vadi2007 вне форума
Старый 26.08.2007, 16:27
#3
Заблокированный
 
Пол: Мужской
Адрес: Moldova
Инвестирую в: Поисковая оптимизация
Регистрация: 16.04.2007
Сообщений: 393
Благодарностей: 83
книга Ашманова действительно хорошая, для новичка самое то. А самый удобный и эффективные способ научится SEO оптимизаций, купить домен и хостинг, выбрать в Яндекс.директе ключевое слово которое ищут не более 500 людей в меся, и сделать сайт с тематикой этого ключевого слова (желательно чтобы вы как-то разбирались в данной тематики). И вперед, обменивайтесь ссылками с тематическими сайтами (Яша сейчас очень любит тематические ссылки, хотя он их всегда любил ), регистрируйте сайт в каталоги, добавляйте различный контент на сайт, новости, статьи и т.д. Скачайте любую книгу об оптимизации сайта, научитесь оптимизировать тэги сайта, прописывать ключевые слова и т.д. Если все сделаете нормально, через месяц другой Ваш сайт будет на первом месте в поисковой выдаче по выбранному ключевому слову. Потом уже попробуйте более конкурентное слово, допустим которое ищут более 1500 раз в месяц, но не более 3 тыс. Никакие книжки не сравнятся с собственным опытом, рано или поздно все равно придется это сделать. Да и еще, хочу сказать что быть SEO оптимизатором очень хорошо и прибыльно. К примеру, средняя зарплата продвинутого новичка SEO составляет по 400-500 долларов в месяц, плюс % от вывода в ТОП10 сайта заказчика если вы с ним договаривались о премиальных

Последний раз редактировалось mysilver; 02.01.2008 в 05:20.
Vanea вне форума
Сказали спасибо:
mysilver (02.01.2008)
Старый 02.01.2008, 05:25
#4
 
Имя: Алексей
Пол: Мужской
Возраст: 42
Адрес: Россия, Москва
Инвестирую в: Свой бизнес
Регистрация: 06.07.2006
Сообщений: 10,095
Благодарностей: 13,398

награды За особые заслуги Старый писака Волшебный горшочек 
Хочу добавить, что Книга Ашманова называется "Оптимизация и продвижение сайтов в поисковых системах"

Оптимизация и продвижение сайтов в поисковых системах
Автор: И. Ашманов, А. Иванов
Издательство: Питер, 2008 г.

Цитата:
От издателя
Возможно ли привлечь заинтересованного посетителя на сайт, не вкладывая в рекламу огромные деньги? Как сделать, чтобы к вам шли именно ваши клиенты? Почему одни сайты часто находят через поисковые системы, а другие - совсем не находят? На все эти вопросы отвечают авторы книги - активно практикующие специалисты с большим стажем работы. Прочитав ее, вы узнаете, как работают поисковые системы и каталоги, как пользователи ищут информацию, как продвигать сайт, то есть добиваться, чтобы пользователи приходили на ваш сайт и покупали именно у вас. Подробно обсуждаются современные способы сетевой рекламы и нестандартные методы продвижения, даются конкретные рекомендации по оптимизации сайтов различной тематики.

Книга адресована непосредственно тем, кто только начинает заниматься поисковой оптимизацией и ищет наиболее действенные методы решения этой задачи, но будет полезна и специалистам, поскольку обобщает обширный практический опыт ее авторов.

Пара отзывов:

Цитата:
Эта книга - то, чего ждали все оптимизаторы
Книга просто супер! Полиграфическое исполнение выше всяких похвал. Нормальная обложка (книгу можно раскрыть на 180 град и листки не посыплются), белая качественная бумага. Отличный подбор материалов на диске!
По сравнению с первым изданием объем вырос на четверть, абсолютно все разделы переработаны и дополнены. Очень много появилось материалов по работе поисковых систем. их специфике. Твердая 5+
Цитата:
Отличная книга! Нашёл много нового!
Данная книга ценна тем, что в ней подробно расписываются все аспекты оптимизации и продвижения сайта, при том очень подробно с хорошими примерами. Плюс много рассказано про заработки на веб проектах.
Миниатюры
Нажмите на изображение для увеличения
Название: 1000628362.jpg
Просмотров: 27
Размер:	28.7 Кб
ID:	1629  
mysilver вне форума
Старый 02.01.2008, 12:30
#5
Заблокированный
 
Пол: Мужской
Адрес: Moldova
Инвестирую в: Поисковая оптимизация
Регистрация: 16.04.2007
Сообщений: 393
Благодарностей: 83
Продвижение сайтов в поисковых системах. Спасательный круг для малого бизнеса

М. Б. Зуев, П. А. Маурус, А. Г. Прокофьев
Издательство: Бином. Лаборатория знаний, 2007 г.
Твердый переплет, 304 стр.
ISBN 978-5-94774-653-2
Тираж: 3000 экз.
Формат: 70x108/32

Продвижение сайтов в поисковых системах и интернет-маркетинг поисковых машин чрезвычайно важны в современном бизнесе для достижения коммерческого успеха.
Эта книга - прежде всего - для предпринимателей. Для тех, на ком держится так называемый "малый бизнес". Для тех, кто рискует собой, своими деньгами и своим здоровьем, создавая Свое Дело. Для тех, кто начинает свой бизнес с нуля.
Авторы, основываясь на своем собственном практическом опыте, научат читателя использовать маркетинг поисковых машин не только для того, чтобы выжить на рынке, но также и для того, чтобы однозначно обойти конкурентов, не знающих о существовании маркетинга поисковых машин или не умеющих его грамотно применять.


Скачать с DepositFiles

p.s Кто скачает просьба перезалить на другие файлообменники!
Vanea вне форума
Старый 13.01.2008, 17:46
#6
Интересующийся
 
Имя: Владимир
Пол: Мужской
Адрес: Новосибирск - Владивосток ( ряд бизнес проектов)
Инвестирую в: Свой бизнес
Регистрация: 11.01.2008
Сообщений: 169
Благодарностей: 15
400 - 500 $? Это вы считаете хорошим заработком для оптимизатора? Ну тогда зайдите на наш форум - Searchengines. Посмотрите какими словами называют работодателей, предлагающих менее 1000$

Да и работать на дядю грамотный оптимизатор вряд - ли станет.
Так же не понятен алгоритм работы с запросами - по одному слову и по частоте. Такое чувство что тоже с какой-то книжки взято. Работа с семантикой совсем по другому принципу строится. А одно слово - очень большой риск. И в зависимости от конкурентности и подбирается СЕМАНТИЧЕСКОЕ ЯДРО а не слово...

Книга Зуева будет посодержательнее Ашмановской - но совсем для новичка не подойдет, не поймет. А когда сам немного поднатореет - и книги не нужны....
В.Карасенко вне форума
Старый 14.01.2008, 00:48
#7
Заблокированный
 
Пол: Мужской
Адрес: Moldova
Инвестирую в: Поисковая оптимизация
Регистрация: 16.04.2007
Сообщений: 393
Благодарностей: 83
Цитата:
Сообщение от В.Карасенко Посмотреть сообщение
400 - 500 $? Это вы считаете хорошим заработком для оптимизатора? Ну тогда зайдите на наш форум - Searchengines. Посмотрите какими словами называют работодателей, предлагающих менее 1000$

Да и работать на дядю грамотный оптимизатор вряд - ли станет.
Так же не понятен алгоритм работы с запросами - по одному слову и по частоте. Такое чувство что тоже с какой-то книжки взято. Работа с семантикой совсем по другому принципу строится. А одно слово - очень большой риск. И в зависимости от конкурентности и подбирается СЕМАНТИЧЕСКОЕ ЯДРО а не слово...

Книга Зуева будет посодержательнее Ашмановской - но совсем для новичка не подойдет, не поймет. А когда сам немного поднатореет - и книги не нужны....
Никто не говорит что 400-500$ для оптимизатора в наше время хороший заработок! Человек сказал что для новичка в этой сфере достаточно хорошая заработка плата! Также тут все зависит от тематики продвигаемого ресурса! Чем конкурентнее тем конечно и плата высокая! Поисковый оптимизатор это в своем роде фрилансер (хотя он таких и является), лично я ни на кого работать не хочу и не буду! А работодатели предлагающие 1000$ и более за вывод сайта в ТОП имеют и сайты в более конкурентных нищах! В книге Ашманова много воды, мол лучше них все равно никто не выведет сайт! Она можно так сказать больше направлена именно на работодателей, ну и немного на новичков! Книга Зуева действительно хорошая, но всеже рекомендую новичкам начинать именно с Ашмановской книги! А потом переходить на практику, и самому все пробовать, а не сидеть и читать все эти книги!
Vanea вне форума
Старый 29.01.2008, 05:33
#8
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Что такое SEO, SEA, SEM

Человек, далекий от оптимизации и работы с поисковыми системами, посмотрит на эти аббревиатуры как на что-то из области жаргонизмов, свойственных разным профессиям. Как например, «мамка» («мать») для обозначения «материнской платы» компьютера в среде компьютерщиков; как «трамблер» скрывает за собой «прерыватель-распределитель зажигания» среди автомобилистов и т.п.
На самом деле это не жаргонизмы, а именно аббревиатуры, т.е. сокращения нескольких связанных между собой слов.

Итак, приступим:
SEO – Search Engine Optimization – Оптимизация под Поисковые Системы. Говоря в доступной простому человеку форме – СЕО это комплекс работ, позволяющих улучшить позиции сайта в поисковиках (гугль, яху, яндекс, рамблер и т.п.). Работы бывают внутренние и внешние.
К внутренним работам можно отнести:
- оптимизацию ссылочной структуры сайта
- оптимизацию текстовой части сайта, работа с тегами выделения текста (жирный, курсив, заголовки различного приоритета (h1, h2, h3 и т.д.))
- оптимизацию кода (уменьшение вложенности таблиц, расположение «нужного» контента ближе к началу страницы средствами верстки кода) и т.п.
- работа с изображениями (грамотная обработка alt тегов, позволяющая сайту занимать неплохие позиции в «поиске по картинкам»)
- работа с мета-тегами (теги title и description, влияющие не только на позицию сайта, но и на его описание в результатах поиска, т.н. «снипет»)
- убирание сессий из адресов страниц (наличие сессий может сыграть очень дурную шутку с владельцем сервера, наплодив кучу дублей в базе поисковика)
- закрытие некоторых зон сайта от индексации (для уменьшения нагрузки на сайт, уменьшения риска попадания в «дополнительный», второстепенный индекс поисковика)
- реализацию кеширования страниц (уменьшение нагрузки, более быстрый отклик страниц сайта)
К внешним работам относится ни что иное, как размещение ссылок на ваш сайт. Везде, где только удается их разместить. В каталогах, на новостных серверах (в статье про вашу фирму не дурно вставить прямую ссылочку на ваш сайт), на досках объявлений, на форумах (в виде сообщения, в виде подписи пользователя, в виде указания домашней страницы в профиле пользователя), на блогах (оставляя комментарий по теме заметки, как правило можно указать и свой сайт) и на других ресурсах, которые допускают размещение ссылки на ваш сайт. Внешние работы – это всё, что ведет всего к одной цели – увеличению количества ссылок на ваш сайт. Это может быть и рассылка пресс-релизов по новостным сайтам.
Некоторые компании увлекаются т.н. «вирусным» маркетингом, размещая на своем сайте что-то такое, что обычно не имеет отношения к самой фирме, но может вызвать интерес интернет-сообщества. Какую-нибудь заразительную игру, или мульт, или даже что-нибудь пошлое или матерное. Иногда таким образом можно получить не одну сотню ссылок и большое число посетителей.

SEA – Search Engine Advertising – Рекламирование на Поисковых Системах. Никак не связанная с SEO деятельность. Чтобы было понятнее, о чем идет речь – зайдите на гугль или яндекс и наберите, например, «купить машину». В основном столбике вы увидите результаты поиска, а в столбике справа – рекламные объявления. Эти рекламные объявления и есть ни что иное, как SEA.
Для SEA не обязательно заниматься SEO своего сайта. В данном случае - посещаемость и прибыльность вашего сайта будет зависеть только от рекламного бюджета и грамотно составленного объявления. Более того, для SEA вашей фирмы не обязательно иметь даже сайт. Например, Яндекс уже несколько месяцев позволяет рекламироваться с «номинальной» страницей, содержащей всего лишь контактную информацию фирмы. Фирме вообще не обязательно иметь сайт, чтобы заниматься SEA.

SEM – Search Engine Marketing – Маркетинг с включением Поисковых Систем. В данном случае речь идет о комплексе SEO+SEA.
Это наиболее полный подход, перекрывающий все потребности сайта в трафике, делающий это наиболее эффективным образом. Так, некоторые запросы можно «оптимизировать» чтобы находиться в результатах поисковой выдачи, а некоторые – купить в виде рекламных объявлений. Либо же, например, сайт очень неплохо стоит по запросу «cars rental» в гугле, но вне зоны видимости в яху. Тогда можно просто купить в яху рекламных объявлений по данной группе запросов. Таким образом можно охватить максимальную аудиторию своих покупателей. Только надо четко помнить, что SEA может лишить вас нескольких тысяч долларов за сутки, не принеся дохода. Подходите к составлению рекламных объявлений очень тщательно, выбирайте только те словосочетания, которые могут обернуться прибылью. Внимательно подходите к указанию ставок за клик по той или иной фразе, чтобы не переплачивать. Наиболее эффективно (в плане извлечения прибыли) использовать И SEO И SEA, а не отдельно то или другое.

Какие виды СЕО существуют

Есть несколько точек зрения относительно этого вопроса. Кто-то считает, что нету «белого» СЕО. Аргументация довольно проста – любая попытка самостоятельного влияния на поисковую систему – нарушение Лицензии поисковика, поэтому к «белым» методам относиться не может. Следуя этой философии – «белое» СЕО – это например когда компания делает что-либо «крутое», в результате чего появляются ссылки на сайт компании без ее участия. Например компания пожертвовала миллион долларов на благотворительность, и в результате сотни новостных сайтов об этом напечатали, указав ссылку на сайт этой компании.
Другая точка зрения, что «белая» оптимизация не позволяет некоторые нарушения, но позволяет работать с внешними ссылками на сайт.
Например, нельзя печатать белым текстом по белому фону. Нельзя делать главные заголовки (H1) меньше (или такого же размера) как обычный основной текст на странице сайта. Нельзя делать жирный текст визуально таким же, как обычный и т.п.
Это достаточно условное огораживание, т.к. поисковики не предоставляют полного перечня «запретных» вещей на сайте (и вне его). В общем оптимизаторы этого класса занимаются самоутешением, полагая и скандируя, что они «белые». Это всё очень условно, т.к. разделитель «белое/черное» - лишь в их собственной голове.

«Серая» оптимизация – это некоторое нарушение «белых» основ. Например, т.н. клоакинг (который в некоторых случаях может быть отнесен к «черной» оптимизации). При клоакинге посетителю выдается одна страница, а поисковику – другая. Например, поисковику выдается страница с большим количеством жирного текста, тогда как обычному человеку показывают страницу с нормальным кол-вом «жирного».
Серая оптимизация, это хождение на грани между «белым» сео и черным. А т.к. «белое» сео толком не определено, то к серой оптимизации можно приписать практически всё. Ну а грань могут определить только поисковики, т.к. именно они накладывают санкции после перехода этой самой грани.
Надо сказать, что есть рад вещей, за которые четко получаешь «пенальти». Многие считают гранью именно эти вещи.

Принципиальные признаки черного СЕО.
Самое понятное с точки зрения определений. Под черную оптимизацию однозначно подпадает линк-спаминг. Линк-спаминг – это размещение ссылок где попало, (вне контекста сайта-донора). Использование одинакового цвета фона и цвета текста (в результате пользователь текст НЕ видит, а поисковик – ВИДИТ и может придать сайту больший вес). Использование CSS таким образом, чтобы визуально обычный и жирный текст не отличались, чтобы заголовки выглядели как обычный текст. Перенасыщение страницы ключевой фразой или словом и т.п.
Заниматься черным сео для обычного сайта крайне рискованно. Конкуренты не спят, и как только ваш сайт займет более или менее приличные позиции, на него «настучат». И если есть за что вас покарать – будьте уверены, вас покарают (представители поисковика).
Многие фирмы и оптимизаторы делают «цепочку» из «черных» ресурсов, ведущую в итоге на конечный, белый сайт. Например, делаются сайты, которые будет не жалко потерять (не основной сайт компании, а вспомогательные). Эти сайты шпигуются ключевыми словами, их накачивают ссылками (линк-спаминг), и в результате трафик, который собирают такие сайты-доноры, перенаправляется на основной сайт.
Таким образом (при грамотном подходе) можно и рыбку съесть, и на…. Ну в общем вы поняли. Дело в том, что основания для удара по главному сайту со стороны поисковика в данном случае очень условны. Ведь ваши конкуренты могут создать сеть «черных» сайтов, направить на вас трафик и попробовать так вас «выбить» из поисковика, самостоятельно пожаловавшись на «вашу» сеть. Поэтому для таких вариантов у поисковика действует презумпция невиновности.
Разумеется, к данной реализации нужно подойти с умом. Располагать сайты-однодневки на том же хосте что и главный сайт – по меньшей мере неосмотрительно. Указывать одинаковые данные в whois – тоже не самый умный вариант. Желая собрать «черный» трафик учитесь маскировке.

Этапы развития СЕО

Время появления SEO – это время появления первых поисковиков. Как только появился первый поисковик, основанный на тех или иных параметрах страниц сайта (а не ручном отборе модератора), так нашлись люди, раскусившие эти параметры и воспользовавшиеся ими.
Первым под удар попал тег «keywords». В него запихивали чуть ли не тысячи «нужных» слов, влияя тем самым на выдачу первых поисковиков с их «дубовыми» алгоритмами. В итоге алгоритмы стали потихоньку усложняться, и началась одна из бесконечных войн «меча и орала».
Стало недостаточно иметь текст в теге «кейвордс», появилось ссылочное ранжирование. Т.е. приоритет начал отдаваться не тем сайтам, на которых есть просто слово «снегоход», но тем, на которые ссылаются ДРУГИЕ сайты, и не просто ссылаются, а именно со словом «снегоход» в ссылке.
Несложно догадаться, что в ответ оптимизаторы стали скупать ссылки с таким словом на других сайтах, повышая тем самым свой вес.
Ладно, думаем себе. Следующим шагом стало введение «авторитетности» ссылок. Ссылка с сайта Василия Пупкина имела один вес, а с сайта Белого Дома – совершенно другой. И в результате сотни ссылок со страниц Василиев Пупкиных не смогли перевесить одной «тяжеловесной». Тяжеловесность – параметр динамический. Есть «корневые» сайты, у которых их «вес» закреплен вручную. Они ссылаются на что-то еще, а те сайты ссылаются еще дальше. Таким образом, происходит естественное распределение веса.
У гугля это т.н. алгоритм Page Rank (относящийся не ко всему сайту, а к конкретной странице), у яндекса это ТИЦ (относящийся как раз наоборот – ко всему сайту сразу).
В ответ оптимизаторы начали «прокачивать» свои сети «вспомогательных» сайтов и покупать ссылки на «весомых» ресурсах. Что привело к фильтрации поисковиками ссылок с конкретных ресурсов. Ссылка есть, санкций на доноре и на акцепторе нет, но вес у ссылки – нулевой и толку с нее нет никакого. Оптимизаторы научились определять и такие, зафильтрованные страницы, не тратя понапрасну «ссылочный» бюджет.
А поисковики научились достаточно неплохо определять сети сайтов, принадлежащих тому или иному сайту, и «обнулять» вес ссылок с таких сетей на сайт-акцептор.
В первую очередь обнуление исходящего веса коснулось т.н. «морд», т.е. главных страниц сайта. Такие страницы имеют (как правило) наибольший вес, и ссылка с «морды» может стоить иногда тысячи ссылок со внутренних страниц.
В результате оптимизаторы стали использовать не только «морды», но и размещать тематические статьи со ссылками на свои сайты. Обмен статьями был придуман достаточно давно, но расцвел именно в эпоху лавинообразного увеличения числа оптимизаторов и начала строгих санкций со стороны поисковиков (применительно к «мордам»)

Процесс этот, скорее всего, не имеет конца. На каждый новый щит поисковика найдется не менее новый меч оптимизаторов.
В связи с появлением алгоритма Phrase rank от гугля - уже высказывались идеи создать огромное количество «мусорных» страниц, сбивающих прицел с реального фрейзранка на тот, который выгоден оптимизаторам.
И результат будет очень забавный. В выдаче окажется опять не то, что там должно быть, а то, что будет диктовать оптимизатор. Но для этого нужно перевесить «естественный фон» в той или иной теме.

Разница между СЕО в рунете и в буржунете
Разница в подходе.

Российский рынок еще достаточно дикий. Это относится не только к поисковой оптимизации. В связи с этим и правила игры у нас достаточно дикие. Российские оптимизаторы только начинают задумываться о специализации и работе с определенными отраслями.
Разумеется, есть исключения и на российском рынке, уже давно взявшие свои конкретные ниши и плотно в них работающие. Но в основном все берутся за всё. И не смотря на большое число оптимизаторов в рунете, такой подход до сих пор приносит прибыль и оптимизаторам, и заказчикам их услуг. Кроме того, российские сеошники работают в основном именно как SEO, не уделяя внимания SEA.
Заказчики в основном ничего в этом не понимают, и оптимизатору проще и выгоднее замкнуть трафик на себе, не делясь с поисковиком бюджетами. Это приводит к тому, что во первых не всегда сеошнику удается проглотить схваченный кусок, а во вторых иногда не удается добыть для заказчика прибыль.
Кроме того, некоторые поисковые запросы могут быть сезонными, и просто нет смысла всерьез их «продвигать». С приходом цивилизованности на рынок SEM заказчики будут лучше владеть вопросом, и продвижение в интернете уже не будет ограничиваться «раскруткой» сайта по запросу «стеклопакет». Преимущество будет у тех игроков, которые смогут обеспечить не просто прибыль, а наибольшую прибыль с наименьшими затратами. Разумеется цена вхождения на рынок SEM будет только расти, да и по мере завоевания доброго имени старым игрокам будет всё проще, а молодым – всё тяжелее. И в итоге произойдет такое же дробление, какое случилось на западном рынке.

Разница в специализации и в «сбыте» трафика.

Помимо отраслевой специализации, можно представить следующее дробление. Одни сеошники работают на конкретного «покупателя», нагоняя трафик на ЕГО сайт. Другие сеошники делают свои СОБСТВЕННЫЕ сайты, размещая на них рекламу того или иного заказчика. Заказчика в данном случае стоит рассматривать в широком смысле слова. Так, для кого-то «заказчиком» может выступать гугл-адсенс. Веб-мастер размещает на своем сайте рекламный модуль адсенса и получает деньги за то, что посетители сайта нажимают на рекламные объявления.
Если он передумает, он может разместить рекламные объявления другого рекламодателя, убрав гугл-адсенс. Или повесить рядом нескольких рекламодателей.
Сеошник может делать сети своих сайтов конкретно под какие-то отрасли и сферы. Для примера можно рассмотреть продажу книг.
Оптимизатор делает блог, посвященный литературе. Он пишет статьи о книгах и их авторах, и размещает в тексте статей ссылки на партнерские сайты, торгующие книгами (например Amazon). Тогда, если читатель заинтересовался книгой и купил ее, перейдя по ссылке, веб-мастер получает свой процент.
Эта схема работы очень распространена в западном интернете. Трудно найти сферу, в которой бы еще не было сайтов с партнерскими программами. Однако в рунете эта схема еще не очень распространена, и сайты партнерских программ можно пересчитать по пальцам. Не говоря уже о сферах, в которых партнерские программы работают. На мой взгляд именно поэтому большинство оптимизаторов сейчас работает на конкретного конечного заказчика, и разрыв отношений может быть достаточно болезненным для обеих сторон.
Тем не менее, западные коллеги по такой (партнерской) схеме работают давно. И многие – очень успешно. Таким образом, оптимизатор-индивидуалист может заработать десятки тысяч долларов в месяц, не вставая с домашнего кресла и не вынимая ног из уютных тапочек.
На западном рынке оптимизаторов-индивидуалистов намного больше, чем оптимизаторов, работающих на конкретного заказчика. В общем случае это выгоднее оптимизатору. Оптимизатор – следующий в пищевой цепочке после поисковика. Он владеет трафиком, и в западном интернете он может выбирать (и выбирает), куда его подороже и поэффективнее пристроить. И уже заказчики вынуждены повышать ставки чтобы получить свою долю трафика. В рунете же пока ситуация обратная. Еще небольшое число заказчиков осознает всю прелесть чистого тематического трафика, а потому – пока трафика хватает всем. Но вот когда его перестанет хватать, тогда и появятся партнерские программы и «биржи» трафика типа 7search и т.п. У нас есть некоторые подобия (например Бегун), но количество рекламодателей и ставки существенно ниже, чем у западных коллег. Тем не менее, процесс идет, и в итоге мы придем к модели западного рынка.

Инструменты сеошника
«Производственные» инструменты.

Достаточно ограниченный набор. К ним можно отнести программы (и модификации систем управления), призванные в автоматическом или полуавтоматическом режиме делать те или иные действия.
Касательно модов – это в первую очередь автоматическая генерация метатегов, mod_rewrite (автоматическое изменение урла страниц в вид, более удобный поисковикам и юзерам), отсечение сессий и т.п.
Сюда можно также отнести генераторы дорвеев («доргены»), «корректоры» плотности текста и т.н. «спамилки» (программы, служащие для автоматического линк-спаминга). Также сюда относятся разного рода парсеры. Это программы, добывающие ту или иную информацию. Например, парсер увертюры позволяет извлечь из последней список ключевых фраз и увидеть, сколько раз их искали.
Доргены и спамилки стоят на вооружении «черных» оптимизаторов.

Доргены – это программы, генерирующие текст с заданными параметрами по определенным алгоритмам. В настоящее время эволюция доргенов уже практически приблизилась к искусственному интеллекту по мудрёности и к кухонному комбайну по функционалу.
Хороший дорген не только сам напарсит (соберет) ключевые слова и тексты из разных источников, он еще и картинок надёргает (или нагенерирует сам), перелинкует сайты в единую сеть по заданному алгоритму, а потом еще и самостоятельно выгрузит всё это хозяйство на нужный сервер по FTP

Спамилки – это программы, размещающие в автоматическом режиме ссылки на ваш сайт. Вы загружаете в спамилку базу (например базу, содержащую адреса гостевых книг), рекламное объявление, после чего курите бамбук, ожидая завершения работ.
Умные спамилки умеют самостоятельно находить прокси (чтобы ваш адрес оставался анонимным), приостанавливать работу в случае разрыва соединения и т.п. Некоторые даже умеют самостоятельно вводить коды с картинок и проходить регистрацию на форумах с активацией по электронной почте. После чего размещают на форуме ваши ссылки

Парсеры стоят на вооружении и у черных, и у белых оптимизаторов, т.к. позволяют отобрать те запросы, которые нужны владельцу сайта (т.н. семантическое ядро). Парсеры могут вытягивать не только список ключевых слов, но и тексты с сайтов (например с википедии), и картинки, и всё, что угодно.
Во многих доргенах уже есть встроенные парсеры текста с поисковиков. Также есть парсеры, вытягивающие результаты по поисковому запросу. Например вы задаете в парсере поиск в гугле по запросу «xanax», указываете глубину поиска, а парсер вам выдает адреса первых 500 сайтов по данному запросу. Например, если такой парсер еще и умеет отображать PR – вы сможете достаточно оперативно оценить конкуренцию по данному запросу.

И парсеры, и доргены, и спамилки бывают двух видов. Для windows и для *nix систем.
Первые принято называть «десктопными», вторые – серверными. Хотя сервера бывают не только на *nix системах. Десктопные программы позволяют человеку, не дружащиму с юниксами-линуксами воспользоваться данным софтом. Также десктопные программы хороши для людей с безлимитным быстрым Интернетом. Все всегда под рукой и под контролем. Однако такие программы обычно более требовательны к ресурсам компьютера.
*nix системы напротив, менее требовательны к «железу», но более требовательны к навыкам оператора. Кроме того для их использования как правило покупается дополнительный сервер, который также надо администрировать, и стоимость которого отнюдь не 4 сольда. Да и хостер должен быть с крепкими нервами, чтобы по первой жалобе такой сервер не заблокировали без возврата денег.

Инструменты для анализа

Этой группой инструментов пользуются все профессиональные оптимизаторы, и черные, и белые.
К ним относятся:
- анализаторы позиции сайтов
- анализаторы выдачи поисковиков
- анализаторы ссылок (на конкретный сайт или группу сайтов)
- анализаторы текстов
- бидчекеры (анализаторы стоимости запроса, например в PPC системах)
- анализаторы трафика на самом сайте
- внешние анализаторы трафика (т.н. счетчики)
- анализаторы доступности сайта

Анализаторы выдачи и позиций – как правило единый комплекс. Они нужны для того, чтобы понять общую конкуренцию по тому или иному запросу и увидеть, где по этому запросу находится ваш сайт. Анализаторы ссылок нужны также для оценки конкуренции по тому или иному запросу. Рассматривать анализаторы ссылок стоит в комплексе с анализаторами выдачи и позиций.
В свое время был очень популярен продукт «Rankmeter». Он состоял из 2х частей – серверной и десктопной. Серверная стояла на сервере разработчика, десктопная ставилась на компьютер покупателю. В результате анализ проходил очень быстро, вне зависимости от скорости Интернета покупателя. Весь анализ шел на сервере разработчика, после чего отправлялся отчет в десктопную часть. Таким образом покупатель не думал о трафике и возможном бане его адреса со стороны поисковиков.
К сожалению данный сервис давно умер, не выдержав конкуренции. В настоящее время абсолютным лидером среди российских оптимизаторов является программа SEO Administrator, предоставляющая огромные возможности для анализа за скромные деньги. Она содержит и анализатор текстов, и анализатор входящих ссылок, и много чего еще. К сожалению у программы есть один недостаток, который не дает «черным» в полной мере порадоваться этому продукту. Она с трудом переваривает большие объемы данных. Анализ нескольких тысяч урлов (или запросов) может повесить программу насмерть, еще и убив (испортив) файл с отчетом. Тем не менее для работы «белых» сеошников эта программа очень удобна и функциональна.

Бидчекеры – это один из видов парсеров. С их помощью вы можете оценить стоимость той или иной фразы или целой группы фраз. Используются в основном черными сеошниками.

Анализаторы трафика – ни что иное как системы статистики. Самые известные из них – webalizer, cnstats, wusage wstat. Эти системы позволяют определить сколько, по каким запросам, когда, с каких поисковиков пришло на ваш сайт посетителей. Как долго они пробыли на сайте, какие страницы посмотрели, с какой страницы ушли и многое другое.
Анализаторы могут быть как «внутренними», так и внешними. Внутренние анализаторы ставятся туда же, где стоит сайт, либо входят в ядро системы управления сайтом. Внешние представляют из себя счетчики, встраиваемые в код сайта. К сожалению на таких счетчиках может теряться до трети статистики. Для полной картины лучше совмещать внешние и встроенные системы статистики

Анализаторы доступности сайта
Анализаторы доступности сайта служат, как понятно из названия, для контроля за «живостью» вашего сайта. Например, вы считаете, что ваш сайт просто обязан быть доступен 24 часа в сутки. И в случае, когда сайт недоступен, вы хотите моментально об этом знать, чтобы решить проблему. Для этого существует масса сервисов. Эти сервисы периодически проверяют доступность вашего сайта и время отклика, и в случае неполадок могут известить вас как на электронную почту, так и например с помощью СМС на сотовый телефон. Такими сервисами пользуются и черные, и белые сеошники. Единственное, на что стоит обратить внимание – на то что сервисы могут добираться до сайта по разным маршрутам. И может так случиться, что маршрут «проверяльщика» будет оборван, а вы будете в это же время прекрасно видеть ваш сайт. Для избежания ложных тревог можно дублировать такие сервисы (например подключиться к европейскому и американскому сервисам)

Инструменты для управления трафиком

В первую очередь эта группа инструментов используется черными сеошниками, хотя TDS может использоваться и в работе белых оптимизаторов.
В эту группу инструментов входят 2 основных
- Система распределения трафика, т.н. TDS
- мультифид

Система распределения трафика (TDS) – штука очень полезная. Переоценить пользу TDS просто невозможно.
Поясню для чего она нужна. Допустим у вас есть сотня дорвеев, и число дорвеев постоянно растет.
Можно сделать редирект с дорвеев прямо на фид. И мучаться в случае необходимости смены редиректа на всех дорвеях. А можно сделать редирект на TDS, и менять ключевую фразу одним щелчком мыши. Попутно распределяя трафик по гео-принадлежности, к примеру.
Кроме того TDS позволяет определить реальное число переходов с дорвеев, позволяет определить, какие именно дорвеи вылезли, по каким запросам и т.п.

Мультифид – это специальный скрипт, позволяющий объединить на одной странице рекламную выдачу с разных PPC систем.
Дело в том, что у разных PPC могут быть разные рекламодатели на одну и ту же тему. Но у каждой PPC стоимость объявления колеблется в зависимости от его позиции. И вместо того, чтобы иметь 20 объявлений от одной PPC, мультифид позволяет иметь «смесь». Он берет первые несколько объявлений с каждой из систем и мешает их в одну кучу, отсекая объявления «подешевле». Таким образом, собрав самые дорогие объявления с разных систем, можно весьма существенно повысить свой заработок на том же самом трафике.

Разумеется, и TDS, и фид должны располагаться на отказоустойчивом и надежном хостинге. Эти две системы, это то, от чего напрямую зависит, дойдут до фида посетители или нет. И соответственно – получите вы свои деньги или нет, и в каком объеме.

Последний раз редактировалось povava; 29.01.2008 в 07:40.
povava вне форума
Сказали спасибо 2 раз(а):
Sergey S. Shirin (19.07.2008), wbserfer (18.09.2008)
Старый 29.01.2008, 06:53
#9
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Основы SEO продвижения и анализа

В этой статье я хочу рассмотреть наиболее важные и неоднозначные моменты в вопросах продвижения своего (или чужого) сайта. Будут затронуты технические, аналитические, статистические и прочие моменты, которые могут повлиять на успех вашего мероприятия. Статья может пригодиться представителям компаний, оптимизаторам, арбитражникам трафика и просто любознательным людям.

С чего стоит начать

Если у вас еще нет работающего сайта, начать стоит с выбора движка и хостинга. Именно так, и не иначе. Неопытный читатель может быть сбит с толку определением «движок», но ничего сложного в нем нет. Речь идет от CMS – Content Managment System. Говоря еще более просто – о системе управления содержимым сайта, которая позволяет без труда изменять содержимое страниц, дизайн страниц, проводить опросы и голосования, давать посетителям сайта возможность оставлять комментарии и т.д. Если вы планируете делать много сайтов по 5-10 статичных страниц, никак не реагирующих на действия посетителей, то можете не особо думать о движке, это можно сделать вручную без особых проблем. В наше время не обязательно писать HTML-код в «блокноте». Если же вы хотите делать большие сайты (30 и более страниц), то я настоятельно рекомендую использовать ту или иную систему управления. В таком случае вам не нужно владеть HTML даже на минимальном уровне. Многие движки по интерфейсу похожи на Microsoft Word, и в них так же легко (как и в ворде) форматируется текст, вставляются картинки, таблицы, ссылки и т.п.
«Почему выбору движка сайта и хостинга стоит уделить особое внимание?», спросит любознательный читатель. Все очень просто – это – техническая основа вашего успеха. Без этого шага все остальные шаги могут не принести должного эффекта. Вкратце обрисую основные проблемные зоны, которые помогут вам оценить возможности движка и хостинга с точки зрения оптимизатора.

Движок
Первое, и самое важное (на мой взгляд) – это возможность использовать т.н. ЧПУ (человеко-понятный урл). Такие урлы нравятся не только людям, но и поисковикам.
Вот два варианта урлов
1) /index.php?act=show&cat=music&sort=album&songer=pin k&year=2001&track=7
2) /pink/2001/7

Оба урла абстрактные, они приведены для иллюстрации того, о чем я говорю. Отвлечемся от понятности для человека и подумаем о поисковиках. Первый вариант урла может доставить вам немало хлопот. Хотя сейчас уже нет таких проблем как несколько лет назад с параметрами в адресной строке, на длинных строках с кучей параметров боты могут «спотыкаться». А это грозит нам не полной индексацией ресурса. Что, в свою очередь, грозит нам потерей трафика. Лучше иметь урл вида /7453.php, чем урл первого типа.
Поэтому выбирая систему управления – уделите внимание тому, какие урлы она генерирует. Многие системы управления уже имеют встроенные модификаторы урлов, в которых вы можете выбрать, как будет выглядеть адрес вашей страницы.
С урлами разобрались, идем дальше. Обязательно уделите внимание такому моменту, как возможность указания уникального заголовка для каждой страницы. Также не помешает возможность задавать индивидуально мета-теги keywords и description.
Уникальные тайтлы позволят вам снизить риск попадания в supplemental results. Кроме того – тайтл – один из важнейших внутренних факторов оптимизации. А description в некоторых случаях участвует в формировании сниппетов (описание сайта в результатах поиска, например в Google или Яндексе).
Обязательно изучите отзывы о выбранном движке. Если регулярно попадаются комментарии о том, что движок сильно тормозит при хорошей нагрузке – лучше поищите другой движок, благо сейчас море и платных, и бесплатных систем управления сайтами. Будет очень неплохо, если движок уже содержит (или позволяет подключить) модуль статистики. Одно из главных правил оптимизатора – статистики много не бывает. Некоторые выводы вообще можно получить только на основе большой выборки.
Ну что, с движком основные моменты разобрали, переходим к хостингу.

Хостинг.
После выбора движка займемся выбором хостинга. Именно так, а не наоборот. Проще и правильнее искать хостинг под движок, а не наоборот. Не спешите отдавать свои деньги русским хостерам. Сначала подумайте о том, с какой страны вы хотите получить трафик на ваш сайт. Общее правило такое – если вы хотите трафик с Германии – берите немецкий хостинг, если с США – американский. Во первых в общем случае это будет значить более быстрый отклик сайта для жителя этой страны, а во вторых это может повлиять на поисковую выдачу.
Возьмем два абсолютно одинаковых сайта, с абсолютно одинаковым весом (внутренними и внешними факторами). Один хостится в России, второй – в Германии.
При прочих равных условиях второй сайт будет стоять в google.de выше первого. Это очень маленький фактор, но он зачастую помогает поисковикам определить «принадлежность» сайта к той или иной стране.
Со скоростью загрузки и региональной принадлежностью разобрались, рассмотрим следующий момент – аптаймы (и даунтаймы). Аптайм – это время работоспособности сайта. Допустим 1 день равен 100% аптайму. Тогда час «недоступности» сайта будет равен примерно 4% даунтайма. «Чем опасен даунтайм?», спросите вы. Поясняю. Мало того, что вы будете терять самих посетителей (они просто не будут видеть сайт), вы еще и будете иметь проблемы с индексацией сайта поисковыми роботами, а также с выпадением страниц из поисковых индексов. Кроме того, работоспособность сайта (на мой личный взгляд) является одним из факторов ранжирования. По моим наблюдениям сайт, который доступен всегда, будет стоять выше сайта, который регулярно не доступен (при прочих равных условиях)
Иногда бывает так, что ваш хост доступен, но SQL сервер не работает. Это грозит не меньшими проблемами, т.к. в поисковый индекс может попасть куча одинаковых страниц, не содержащих ничего кроме общего шаблона. А это грозит «склейкой» всех страниц и выпадением из поискового индекса.
Таким образом приходим к тому, что перед покупкой хостинга нам в обязательном порядке стоит поискать отзывы на форумах о том, как этот хостинг работает. Частенько бывают отзывы именно о падающих SQL, а не всём хосте.
Также замечу, что лучше сразу переплатить несколько долларов, но не мучаться потом с переездом на новый хост (что также грозит потерей трафика и позиций на время переезда).
Не обязательно напрямую обращаться к зарубежным хостерам. У многих из них есть российские реселлеры. Они предлагают практически то же самое, но иногда с ними работать удобнее. Например из-за возможности оплатить хостинг с помощью Webmoney или Яндекс.Деньги. Также не стоит упускать из виду то, что они могут оказать тех. поддержку на русском языке, что иногда очень важно.
О реселлерах тоже стоит прочесть отзывы на форумах. Замечу, что и в рунете, и в западном интернете много сайтов и форумов конкретно о хостингах, рекомендую их полистать.

Формирование семантического ядра. Инструменты для русских и английских сайтов.

Второй шаг, который нам стоит сделать – отобрать семантическое ядро для нашего сайта. Семантическое ядро – это набор слов и фраз, которые люди ищут. Например вы продаете матрешек, тогда часть вашего семантического ядра будет выглядеть так:

- Матрешки
- Купить матрешку
- Матрешки в москве
- Продавцы матрешек
- …

Ядро не надо придумывать, для его формирования есть сервисы, которые показывают те запросы, которые люди ищут в действительности. Вы можете сильно заблуждаться в своих догадках (относительно нужных вам фраз), для их проверки и существуют сервисы.

И для российского, и для иностранного трафика есть инструменты анализа
Вот некоторые из них:

Зарубежный трафик
Овертюра
ВордтрекерГугль адвордс

Российский трафик
Яндекс.Директ
Рамблер-АдСтат
Пунто
Отдельно стоит выделить оценку с помощью продавцов PPC трафика. Например Evoplus позволяет определить примерное кол-во трафика в системе, увидеть его стоимость, и таким образом дополнительно косвенно оценить сложность того или иного запроса. Кроме Евоплюса есть еще масса продавцов трафика. Не обязательно его там покупать, но зарегистрироваться для сбора доп. статистики вполне можно
Не гонитесь за однословными запросами, как правило они очень сложные в плане вывода в топ поисковиков. Уделите внимание 2-3 словным (и более) запросам. В общем случае они проще в плане продвижения и выгоднее в плане конвертации в деньги.
Свои системы продажи контекстной рекламы есть также и у Yahoo и MSN, по ним также можно косвенно собрать полезные данные. Не ограничивайтесь тем, что я перечислил, существует очень много различных систем, я описываю самые фундаментальные и важные. Если у вас есть лишнее время – потратьте его с умом для своего сайта.

ПогрешностиОбратите особое внимание на то, что ни на одном из инструментов статистика не является абсолютно точной и правдивой. Так, например Овертюра может врать не только предполагаемые цифры поисков по той или иной фразе, но и падежи и порядок слов!
А цифры Яндекс.Директа нужно делить на 1.5-2, т.к. это «предполагаемое кол-во показов объявления Директа», которое отображается не только на первой странице поиска. Кроме того, Яндекс также иногда врет падежи и порядок слов.

Перекрестная проверка
В обязательном порядке проверьте всё ваше семантическое ядро как минимум тремя инструментами. Вордтрекер имеет бесплатную ограниченную версию
Это нужно для того, чтобы выявить фразы-паразиты, которых «нет в природе» или которым не стоит уделять внимание. Мне могут возразить, что так можно упустить много низкочастотников (запросов, которые ищут не очень часто). Все так, но задумайтесь, сможет ли новичок осилить 1000+ запросов для своего сайта? Лучше начать с того, что под силу. И поработав над «среднечастотными» запросами, вы увидите сами на своем сайте кучу дополнительных низкочастотников. Есть еще отличный вариант оценки запросов, который будет представлен чуть ниже.

Своевременность поиска ключевых фраз для семантического ядра.

Ну что, уже готовы начать собирать фразы и слова для своего сайта? А я вас опять немного огорчу. Дело в том, что все сервисы показывают данные не за выбираемый вами период, а за тот, который они вам позволяют оценить. Поясню – искать данные по Christmas тематике летом – не самая лучшая идея. Например Вордтрекер хранит данные за последние три месяца. Это значит, что статистика у нас опять получится неполноценная. Но слава богу, у нас еще есть кое какие козыри в кармане.

Инструменты для оценки количества трафика

Сервисы типа Адвордса и Вордтрекера были нужны нам совсем не для оценки количества трафика. Они были нужны нам для формирования семантического ядра.
А вот теперь нам на помощь приходит другая группа инструментов.

Гугль трендс
Алекса
Чужие счетчики и открытые системы статистики

Рассмотрим их по порядку, и начнем с гугль трендс. Что нам может дать этот инструмент? Возьмем сезонный запрос «christmas». Во первых мы видим динамику запрашиваемости по месяцам. И если сейчас лето, то мы можем примерно прикинуть, какой трафик ждать в «сезон». Дальше, мы можем выбрать более точно регион и период для оценки. Таким образом мы уменьшаем риск ошибки.

Алекса.
Что она может нам дать? Для начала вам нужно отобрать сайты-лидеры в вашей отрасли, которые точно имеют большую аудиторию. Желательно, чтобы сайты существовали не менее года, а лучше – от трёх лет и более.
Далее идет кропотливый и нуд(ж)ный анализ. Вбиваем по очереди адреса этих сайтов и смотрим вкладку «Traffic Details». Она дает нам примерное представление о сезонности трафика. Там же мы можем увидеть основные страны, с которых сайт получает посетителей. Алекса тоже врет, но чем больше общей статистики, тем проще сделать правильный вывод
В принципе от Алексы нам больше ничего не нужно, и переходим к следующему, очень интересному и полезному этапу.

Чужие счетчики и открытые системы статистики.
Лично я считаю анализ чужих счетчиков и статистики очень приятным и полезным этапом. Поясню, что это и зачем это. Допустим, вы нашли десяток-другой хороших, посещаемых сайтов из вашей тематики. И вот теперь начинается самое интересное.
Смотрим на саму страницу и на код страницы, и если видим счетчик – пытаемся подсмотреть на сервисе, который его предоставляет, а не открыта ли статистика?
Например, популярный в рунете счетчик liveinternet позволяет не закрывать статистику от посторонних глаз. Например вот так можно подсмотреть за аудиторией газеты «Из рук в руки». Тут мы увидим и количество трафика, и ареал, и запросы и еще кучу всего полезного. Разумеется, можно выискать и сайты по вашей тематике, надо только поискать.
Не обнаружили счетчика? Не беда, есть и другой подход. Сначала пытаемся определить, на каком хостинге находится сайт. Например с помощью сервиса whois
Если нам это удалось – идем на сайт хостера и смотрим, что он предлагает своим покупателям. Частенько хостеры указывают, что на сайте может быть использована та или иная предустановленная статистика. Если вы видите что-то подобное – идете на сервер владельца скрипта статистики (гугль вам в помощь) и смотрите, в какую директорию по умолчанию ставится эта система и как называются файлы.
Если нам не удалось определить хостинг или если хостер ничего не пишет о статистике – то не стоит отчаиваться, не всё потеряно Идем на какой-нибудь софтверный сайт, на котором есть описания различных веб-скриптов. Выбираем категорию «Статистика» и смотрим наиболее популярные серверные системы статистики. Это нужно нам только для одного – чтобы получить признаки урлов. Идем на серверы этих скриптов статистик, качаем, смотрим в какие папки они ставятся по умолчанию и пытаемся подобрать
Ну а там уже смотрим, кто, откуда, в каком числе ходит на сайт, который мы оцениваем.

Анализ чужой статистики (по нескольким серьезным сайтам из вашей сферы) позволяет более точно составить для себя картину, которая получилась на предыдущих шагах. Кстати, и такой анализ тоже врет. JS счетчики могут не учитывать до трети трафика, а серверные системы могут не понимать, что это не 10 юзеров с разным IP, а один, который с диалапа регулярно заходит на сайт (такие системы не умеют вешать юзерам кукисы и поэтому могут ошибаться)

Идеальных инструментов для оценки, к сожалению, пока нет. Именно поэтому надо использовать целый комплекс шагов. Тем самым мы существенно снижаем риск работы «не в ту сторону».

Учет - всему голова.

Статистика посещаемости.
Я не зря в первой части сказал, что неплохо бы выбрать движок с модулем статистики. Чем больше вы накапливаете статистики, тем проще работать. Статистика позволяет вам увидеть кучу отличных запросов, которые вы не найдете ни в каких сервисах.
По мере накопления статистики вы сможете отбросить не эффективные запросы и перераспределить силы в сторону более выгодных. Если вы не хотите, чтобы вашей статистикой поживились конкуренты – поступайте следующим образом:
- закройте внешние счетчики от несанкционированного просмотра (это делается на сервере, который вам выдает этот счетчик, например на Liveinternet это можно сделать сразу при регистрации счетчика)
- не ставьте систему статистики в папку «по умолчанию» если это возможно; закройте директорию с серверной статистикой посредством установки пароля

Статистика по позициям

Просто смотреть, по каким запросам приходят на ваш сайт – это пол дела. Вторая половина – видеть откуда приходят. Речь о конкретных поисковиках и позициях сайта по тому или иному запросу. В наши дни существует достаточно много серверных скриптов и windows-программ для оценки позиционной статистики. Вот лишь некоторые из них

https://promosite.ru/services/monitoring.php
https://checkposer.com/
https://www.siteposition.ru/
https://semonitor.ru/

Для работы с «белыми» сайтами я предпочитаю использовать программу Semonitor, он содержит десятки поисковиков, выводит отчеты в txt, xls, csv и т.п. файлы, может работать с прокси (важная функция) и еще много чего умеет. Кроме того, в пакете может идти не только анализатор позиций, но и дополнительные полезные программы (подробнее вы можете почитать на сайте).
Анализатор позиций «семонитора» позволяет отслеживать позиционную динамику (сохраняется статистика за предыдущие даты), а это помогает нам оценить результативность и эффективность работы. У семонитора есть только один существенный минус – на большом количестве запросов с глубоким анализом он серьезно жрёт системные ресурсы.
Зачем нам нужен анализ с прокси? Все очень просто. Во первых если вы будете анализировать очень много информации – ваш IP адрес может быть «забанен» поисковиком, в результате вы не сможете даже в браузере в него зайти. Это первая причина. Вторая причина в том, что в некоторых поисковиках позиции сайта зависят от региона, ИЗ которого ищут. Так, если вы зайдете на google.com с русским IP адресом – вы увидите одни результаты поиска. А если с американским – совсем другие. Прокси позволяют нам прикинуться жителем любой страны

Оценив позиции и сопоставив их с посещаемостью, можно придти к очень интересным выводам. Например к тому, что какой-то двухсловных запрос на двадцатом месте дает вам меньше трафика, чем трехсловный запрос на тридцатом. А это прямая нам рекомендация – уделить особое внимание этому трёхсловному запросу и поднять его повыше. Потому что чем выше сайт стоит по тому или иному запросу, тем больше на него приходит трафика.

Основные опасности (суплементал, песочница)
Если вы будете работать с зарубежным трафиком, то основные опасности, которые вас подстерегают – это Supplemental Results & Sandbox в гугле.
Именно гугль дает больше всего трафика, и он же имеет самые серьезные фильтры на «коммерческие» тематики.

Supplemental Results
Итак, что такое суплементал («сопли» в простонародье)? Это результаты из т.н. «дополнительного» индекса. Значит это примерно следующее – страница проиндексирована, но в обычном поиске по гуглю она не будет отображаться, соответственно и трафика с нее не будет.
О причинах попадания страниц в суплементал и о том, как с ним бороться в общем виде можно почитать в статье Вацлава - здесь.
О том, как не попасть в суплементал лучше подумать заранее (и это тоже касается выбора движка, как я уже писал)

Sandbox
Песочница. Именно такое название встречается для группы фильтров, накладывающихся на молодые сайты. Действие песочницы выражается в том, что сайт есть в выдаче по интересным запросам, но настолько далеко, что у него нет шансов получить трафик по этим запросам.
Наиболее сильно песочница выражена в дорогих коммерческих тематиках (недвижимость, медикаменты, банковская сфера, хостинг, продажа чего-либо)
То, что вы попали в песочницу, не значит что у вас совсем не будет трафика – у вас просто будет мало трафика.
Выход из песочницы занимает от нескольких месяцев до года. Знаменуется это явление резким повышением трафика на сайт и существенным ростом позиций по двух-трех-четырех словным запросам.
Сделать новый сайт под коммерческий трафик и не попасть в песочницу – с родни чуду. Так что если вы попали в песок – не переживайте, вы можете лишь попытаться ускорить выход из песка. В общем случае для этого необходим регулярный прирост контента и ссылок на сайт. Ссылки желательно с хороших, тематических ресурсов, и сроком размещения не менее 3-4 месяцев. Не стоит сразу покупать 500 ссылок с PR5, лучше потихоньку проставлять по 3-5 хороших ссылок в неделю, так меньше шансов загреметь под фильтр на продажные ссылки. Этот фильтр просто на время обнуляет вес ссылок для вашего сайта. Сам ваш сайт санкций не получает, просто для него как бы отключается действие новых ссылок.
Пока вы находитесь в песочнице – вы будете получать трафик в основном не с гугля, а с других поисковиков. С гугля же будет идти низкочастотный трафик (фраза с кучей слов, грубо говоря)
К сожалению обойти песочницу практически невозможно, во всяком случае у меня нет 100% рецепта, так что к этому надо просто морально подготовиться и не строить радужных надежд.

Оценка внешних факторов сайта

Ну что, уважаемые читатели, вы уже начали потихоньку меняться статьями, покупать ссылки, регистрироваться в каталогах? Тогда самое время поговорить об оценке результатов этой деятельности.

Во многих поисковиках есть технические операторы, служащие для более глубокого анализа, ниже я перечислю основные из них (и методы их использования)

Проверка проиндексированных страниц на сайте.
Может пригодится, чтобы понять, насколько поисковым ботам нравится наш сайт и сколько его страниц находится в базе поисковика (чем больше – тем лучше в общем случае)
Поисковик Запрос в строке поиска
Google allinurl:vasya.com/ site:vasya.com
Yahoo site:vasya.com
MSN site:vasya.com
Yandex #url="vasya.com*"
Aport URL=vasya.com
Rambler (вводить в адресной строке, а не в строке поиска) https://search.rambler.ru/srch?sort=0&filter=vasya.com


Проверка внешних ссылок на сайтМожет пригодиться для анализа проделанной вами (или вашим оптимизатором) работы. Стоит понимать, что ни один поисковик не показывает всех ссылок, которые он знает на ваш сайт. Поэтому и для анализа ссылок на чужие сайты надо пользоваться не одним, а несколькими поисковиками
Поисковик Запрос в строке поиска
Google link:vasya.com -site:vasya.com
Yahoo linkdomain:vasya.com -site:vasya.com
MSN Функция временно не работает
Yandex #link="vasya.com*"
Aport link:vasya.com
Rambler Функция отсутствует


Оператор site:vasya.com * -view позволяет вам увидеть все страницы, которые находятся в доп. индексе (Supplemental results для гугля)

Есть и более хитрые и специфические операторы, но для начала вам вполне хватит и этих.
Гугль самый хитрый и обычно показывает меньше всего ссылок. Это не значит, что он знает так мало ссылок, просто он самый хитрый
Также кол-во ссылок можно оценить косвенно, то есть банально вбив адрес сайта в строку поиска (вообще без операторов). Иногда так можно найти много интересного.

Легенды о ПР
Часто можно увидеть утверждение, что достаточно купить пару ссылок с сайта с ПР8 и всё будет супер-пупер. Это далеко не всегда так.
Во первых надо понимать, что тулбарный ПР отличается от текущего. Текущий ПР «плавает» потоянно, а тулбарный пересчитывается раз в неск. месяцев.
Во вторых есть умельцы, которые с помощью серверного редиректа «клеют» свои домены к другим, с хорошим ПР. Такому приклеенному пейджранку ноль цена.
В третьих на разных датацентрах (поисковых серверах, грубо говоря) PageRank может существенно отличаться. Определить его можно например с помощью программы из пакета «Семонитор», либо воспользоваться одним из онлайн сервисов.

Вот парочка таких сервисов:
https://www.pageranktool.net/
https://livepr.raketforskning.com/

Далее – есть фильтры на исходящие ссылки. Если гугль решил, что ваш сайт продает ссылки чтобы влиять на поисковики – он обнулит или сильно уменьшит вес исходящих ссылок с вашего сайта. То же относится и к другим сайтам (с которых вы хотите купить ссылки). Возможно в одном из следующих материалов я обрисую общую схему определения зафильтрованности ссылок, но сразу могу предупредить - это серьезный трудоемкий процесс, далеко не всегда дающий однозначный результат. Кроме того, гугль сейчас больше оперирует ТрастРанком, а не ПейджРанком, но ТрастРанк мы толком оценить не можем даже с помощью «ошибающихся» сервисов.

Таким образом выходит, что глядя на ПР при покупке ссылки, вы можете спустить несколько сот долларов на единственную ссылку, не получив вообще никакого эффекта.
Никогда не полагайтесь при покупке ссылок только на PR.

Подведение итогов
В этой статье я постарался рассмотреть основные «острые углы», на которые натыкаются новички (да и не только)
В первую очередь после запуска сайта уделяйте пристальное внимание статистике.
Во вторую очередь, основываясь на статистике, старайтесь найти новые запросы для вашего семантического ядра
Не надейтесь быстро «проскочить» в выдачу англоязычного гугля, и не расстраивайтесь, если вам это не удалось сразу.
Делайте интересные ресурсы, и ссылки покупать не придется

Удачи!
povava вне форума
Старый 29.01.2008, 07:12
#10
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Теория SEO для новичков
What Is Organic SEO?

Если сказать простыми словами, то систематизированная оптимизация поисковых механизмов (SEO) – это оптимизация поискового механизма руками без использования обманных методов и скриптов. Это самая чистая форма оптимизации сайта с пользой для поискового механизма, которая по-прежнему интересна посетителям вашего сайта, сделана правильно – именно это поисковые механизмы ищут в сайте. Если они найдут, что искали, ваш сайт получит самый хороший рейтинг и поднимется выше в списке результатов поиска. Далее в статье я буду называть это просто SEO.

Понять поисковые механизмы

Понять поисковые механизмы и их общую концепцию очень важно, чтобы использовать эффективные методы SEO. После индексации все страницы с ключевыми словами, которые можно найти в директории поискового механизма, перечислены на страницах с результатами поиска. Каждая страница имеет рейтинг в зависимости от значимости, популярности и нескольких других факторов. Поэтому, теоретически, чем более значима страница по заданному ключевому слову, тем вероятней, что она получит высокое место в списках.

Позвольте представить пауков поисковых механизмов
Еще один важное обстоятельство, касающееся поисковых механизмов, заключается в том, что не люди обходят миллиарды сайтов и ставят им оценки. Они используют автоматизированное программное обеспечение, называемое "пауками" или "ботами", которое выполняет работу намного быстрее. Расчеты, которые использует поисковый механизм, чтобы определить рейтинг сайта, называются алгоритмами, и в таких крупных поисковых механизмах как Google, Yahoo и MSN эти алгоритмы регулярно меняются. Изменения и особенности алгоритмов не предают огласке, чтобы пользователи сайтов не манипулировали поисковыми механизмами с целью достичь первых мест в списках результатов, независимо от значимости содержащейся информации.

Оптимизировать для поисковых механизмов – оптимизировать для посетителей
Конечно, в некоторой степени каждый, кто читает эту статью, виноват в изменении страниц с целью исполнения капризов поисковых механизмов, но все надо делать правильно, систематизировано. Мы понимаем, что оптимизация страницы с целью ублажить ботов может массово отвлекать посетителей от действительной ценности сайта. Поисковые механизмы также это понимают, поэтому алгоритмы эволюционируют. С каждым новым алгоритмом, который обычно патентуют такие поисковые механизмы как Google, мы приближаемся к структуре, где сайты оцениваются по их значимости для посетителей. Вы, возможно, вспомните романы Айзека Азимова, но алгоритмы и боты все больше становятся похожи на людей.

Основные компоненты SEO

Действительные методы оптимизации сайта оставим для другой статьи, но основные компоненты кампании SEO подразделяются на способы оптимизации страниц on и off. SEO страниц on включает такие факторы, как добавление ключевых слов, оптимизация контента, структура страницы и т.д. В то время как основной способствующий фактор оптимизации страниц off – входные ссылки. Есть много различных факторов в каждой из этих областей, и различные способы оптимизации поисковых механизмов предоставят вам информацию о том, какие факторы наиболее ценны для получения высокого рейтинга. Мнения настолько различны, потому что никто не знает критериев алгоритма наверняка.

Преимущества SEO

SEO, вероятно, наиболее выгодный способ продвижения в Интернете. Он высоко рентабельный и может принести долгосрочные результат, и каналы, которые он создает, целенаправленны. Это не значит, что вы не должны использовать альтернативные способы рекламы сайта. Для многих баннерные объявления, пресс-релизы (их также можно использовать в качестве элемента кампании SEO), кампании PPC и спонсорские листинги оказываются очень прибыльными и способствуют популярности сайта.

Для рентабельности и жизни

Рентабельность легко определить, если вы оцените потенциал кампании SEO в сравнении с методом, который многие считают чуть ли не самым лучшим - PPC. Кампания PPC обойдется вам в среднем в 5 центов за одного посетителя. Это означает, что за каждую тысячу посетителей вы будете платить $50. Самая обычная работа в области SEO на сайте с 10 страницами обеспечит такой трафик в месяц достаточно быстро.

$50 это немного, но подумайте, что вы платите эту сумму в месяц, чтобы получить тысячу желаемых посетителей. За год вы заплатите $600, ну и так далее. А теперь подумайте, что вы боретесь за относительно конкурентоспособное ключевое слово, и окажется, что вам надо платить 50 центов за клик, чтобы получить тысячу кликов в месяц. И вдруг вы платите $6000 в год и все равно получаете всего лишь тысячу кликов в месяц. За $6000 вы сможете оплатить такой объем работы в области SEO всего за несколько месяцев и получите значительно больше трафика.

Целенаправленные каналы

Целенаправленные каналы – это лучший тип каналов, которые вы можете создать. Это означает, что посетители уже предрасположены к основной теме вашего сайта и заинтересованы в том, что вы можете рассказать. Это означает, что они более расположены к тому, что купить товары или услуги на вашем сайте, зайти по аффилиатским ссылкам или кликнуть на объявления Google, чтобы заработать вам больше денег. В первую очередь они используют ключевые слова, относящиеся к вашему сайту. Потому они читают описание и название сайта, и это уже пробуждает в них интерес к странице или вынуждает кликнуть на ссылку. И теперь они уже готовы внимать информации на вашем сайте.

Поэтому помните

SEO – это самый лучший инструмент вебмастера, но если с ним плохо обращаться, для вас это обернется ужасным образом. Следуя букве закона и не используя секретных методов, вы вскоре обеспечите мощные каналы, которые принесут вам прибыль.
povava вне форума
Сказали спасибо:
wbserfer (18.09.2008)
Старый 29.01.2008, 07:24
#11
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Удалил. Вообще это статья была из раздела "черное СЕО".

Последний раз редактировалось povava; 29.01.2008 в 15:44. Причина: тема пользователям не понравилась
povava вне форума
Старый 29.01.2008, 15:12
#12
Интересующийся
 
Пол: Мужской
Инвестирую в: SEO
Регистрация: 18.11.2007
Сообщений: 108
Благодарностей: 11
Цитата:
Инструменты сеошника: доргены, спамилки, парсеры
- не сеошника а дорвейщика скорее.
А вообще зря ты здесь последнюю статью разместил.
ancifer вне форума
Старый 29.01.2008, 17:28
#13
Заблокированный
 
Пол: Мужской
Адрес: Харьков-Сити
Инвестирую в: Свой бизнес
Регистрация: 15.01.2007
Сообщений: 3,255
Благодарностей: 418
povava, а нельзя было просто ссылки на источники дать ? На форуме тяжело все это прочитать. ИМХО
vlastelin вне форума
Старый 29.01.2008, 17:40
#14
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Цитата:
Сообщение от vlastelin Посмотреть сообщение
povava, а нельзя было просто ссылки на источники дать ? На форуме тяжело все это прочитать. ИМХО
Если тяжело прочитать, тогда не читай. Ссылки я давать не буду.
povava вне форума
Старый 29.01.2008, 18:00
#15
Заблокированный
 
Пол: Мужской
Адрес: Харьков-Сити
Инвестирую в: Свой бизнес
Регистрация: 15.01.2007
Сообщений: 3,255
Благодарностей: 418
Цитата:
Сообщение от povava Посмотреть сообщение
Если тяжело прочитать, тогда не читай. Ссылки я давать не буду.
Ну как знаете. Если уж такой принцип, то ваше право конечно.
vlastelin вне форума
Старый 15.02.2008, 01:12
#16
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Поисковые машины давят "черных оптимизаторов"

Поисковые машины давят "черных оптимизаторов"Сегодня интернет стал реальной бизнес-средой, и позиция сайта компании в результатах поискового запроса оказывает значительное влияние на ее бизнес. "Верхние строчки" являются предметом острой борьбы. При этом далеко не всегда первые места занимают наиболее адекватные запросу ресурсы. Противостоять "черным оптимизаторам" могут лишь сами поисковые машины.

Поисковики, представляющие собой на сегодняшний день один из самых востребованных интернет-сервисов, оказывают серьезное влияние на бизнес. По статистике, пользователи редко заходят даже на вторую страницу результатов поиска, поэтому, чем выше расположен сайт, тем больше посетителей он привлечет. Это приводит к стремлению манипулировать результатами, выдаваемыми наиболее популярными поисковыми машинами. С другой стороны популярность поисковика напрямую зависит от того, насколько релевантные ссылки он выдает. Соответственно, чем совершеннее механизм поиска, тем популярнее машина и тем изощреннее становятся способы продвижения сайтов.

Как все начиналось
Первоначально поиск воспринимался как одна из составляющих всемирной паутины, облегчающая жизнь пользователям, а разработчикам поисковых систем и в голову не приходило скрывать механизм своей работы. Сам поиск при этом базировался на обработке специальных тегов в HTML-документах. Но активные вебмастеры практически сразу воспользовались этим и начали заполнять рассматриваемые теги так, чтобы оптимизируемый ресурс оказывался в первых строчках результатов поиска. Более того, очень часто содержание тегов не имело никакого отношения к тематике сайта, но полностью соответствовало словам, составляющим самые популярные запросы.

Поисковики решили эту проблему, прекратив учет содержимого тегов и переключив внимание на текст самой страницы. В тот момент логично было предположить, что чем чаще определенное слово встречается в тексте документа, тем более он релевантен запросу. Но и этот раунд поисковые системы проиграли. Создать множество страниц, в которых сотни раз встречается популярное слово, например, "мобильник", чтобы попасть на первые места по этому запросу, оказалось достаточно просто. В результате интернет наполнился бессмысленными, напичканными ключевыми словами страницами. Посетитель с них мгновенно перенаправлялся на другой сайт, наполненный рекламой или информацией, часто не имеющей никакого отношения к поисковому запросу. Такие ловушки получили название doorway (входная страница). Поисковики быстро среагировали и на эти действия, введя ограничения на частоту использования ключевой фразы на странице. Это частично исправило ситуацию, но не сделало результаты поиска чистыми.

Эпоха Google
Появление на рынке Google, предложившего качественно новый способ организации поиска, принесло существенный перевес в борьбе с поисковыми спамерами. Алгоритм его работы основывается на определении для каждого ресурса, так называемого, авторитета страницы – Page Rank (PR), представляющего собой обобщенный показатель ее популярности. То есть при определении позиции сайта в результатах поиска, помимо количества нужных слов на странице, решающее значение также имеет то, сколько и какие страницы по всему интернету на него ссылаются. Учитывается не только количество, но и качество ссылок. За счет этого верхние места при ранжировании результатов поиска достаются именно сайтам с высоким PR.

Механизм Google открыл новый этап в развитии поисковых систем – практически все современные поисковые машины применяют вариации Page Rank. В "Яндексе" – это индекс цитирования, в "Рамблере" – ссылочный вес документа. При этом наученные горьким опытом разработчики поисковых движков уже не раскрывают точный алгоритм: известны лишь общие принципы работы системы. Дальнейшее развитие принципов авторитетности страницы вылилось в появление "ссылочного ранжирования", когда учитывается текст ссылок на сайт, что придает ему большое преимущество перед другими ресурсами. Например, ссылка, на которую нажимает пользователь, может выглядеть как www.zr.ru, а может содержать слова "за рулем", соответствующие тому же сайту. Если ссылок с такими словами много, то при запросе "за рулем" именно этот ресурс оказывается на первом месте.

Разработчики сайтов ответили созданием системы Search Engines Optimization (SEO) – поисковой оптимизации ресурсов. Специалисты SEO, или оптимизаторы, специализируются как раз на привлечении поисковой аудитории, концентрируют свои усилия на том, чтобы написать текст для сайта, сформировать структуру страниц, расставить ссылки на ресурс и т.п. таким образом, чтобы сайт оказался в самом верху поискового ранжирования при релевантных, а иногда и не очень запросах. В пределе может создаваться несколько различных страниц, каждая из которых оптимизирована под алгоритм конкретной поисковой машины.

При этом, фактически поисковики не против оптимизаторов, соблюдающих правила и создающих полезные сайты, но как в любом деле, где замешаны деньги, желание использовать запрещенные приемы никуда не исчезло. В результате текстовые ссылки стали продаваться, и сформировался стихийный рынок, на котором появилось множество "продавцов лиц", то есть ссылок, размещаемых на главной странице сайта. Поисковики в ответ на это ввели специальные фильтры.

Таксономия и фолксономия

Растеряв часть доверия пользователей, поисковые системы продолжают совершенствовать алгоритмы, но в интернете уже начали появляться альтернативные способы организации и поиска информации. Например, таги – ключевые слова, с помощью которых информация обобщается по категориям. Простейшая иллюстрация – категории на блоге: к примеру, "интернет-сервисы", "новости", "поисковые системы" и т. д. Когда таги образуют иерархию, получается таксономия, принцип организации интернет-каталогов, когда ссылки на сайты расположены в рубриках, имеющих несколько уровней вложенности.

Каталоги веб-ресурсов были популярны еще в начале развития сети, когда количество сайтов было разумным, чтобы рассортировать их по нескольким категориям. На сегодняшний день каталоги разрослись до невероятных размеров и постепенно утратили роль навигатора по сайтам для пользователей. Однако, все те же таги послужили основой для реализации очень простого принципа – доверия мудрости коллективного разума.

Принцип действия тагов прост. Дело в том, что на заре развития интернета сайты делались для относительно небольшого количества посетителей – человек попадает на ресурс, самостоятельно оценивает его дизайн, полезность информации, осуществляет поиск по нему и т.д. Сегодня с сайтом работает целое сообщество, почему бы не воспользоваться этим? Можно учитывать мнения всех посетителей ресурса, предоставив им возможность оставить оценку информации или ее части на сайте.

Для этого в идеале подходит фолксономия – совместная категоризация информации пользователями с помощью тагов. Причем самое важное слово в этом определении – "совместная", то есть пользователь размещает информацию не для себя лично, а для всего социума, а деятельность всех участников суммируется. Сайт предоставляет аудитории инструмент, позволяющий пометить некоторый набор информации одним или несколькими тагами. Они сохраняются в общей базе, и всегда можно просмотреть итоговый результат: список самых популярных, новых тагов, добавленных конкретным пользователем. Эта система хорошо работает на многих тематических сайтах – для записей в блогах, для фотографий, для новостей и результатов поиска и т. д. В качестве примеров можно назвать сервис публичных закладок del.icio.us и сайт для хранения фото-коллекций Flickr. На главной странице Del.icio.us можно найти только что добавленные ссылки и таги, под которым они сохраняются. И одновременно указывается число пользователей, использовавших точно такие же описательные слова для конкретной ссылки.

Ограничение на количество тагов – основная проблема социальных сервисов, основанных на фолксономии, решение которой пока не найдено. Поэтому в ближайшее время данный подход не сможет стать альтернативой традиционному поиску, хотя, возможно, произойдет своего рода интеграция, когда в ответ на запрос помимо обычных результатов поиска будет выводиться ссылка, помеченная большинством. Кстати, подобный поисковик уже создается европейскими разработчиками. Однако, скорее всего проблему с вездесущими оптимизаторами это не решит, и битва за строчки в результатах продолжится.

Поисковая индивидуализация

Крупные поисковые системы в своей стратегии сделали ставку не на использование социальных инструментов, а на персонализацию, или персонификацию, поиска. Летом 2005 года два ведущих поисковика Google и Yahoo предоставили пользователям возможность индивидуальной настройки поиска.

Персонализация поиска – это удобный инструмент, конкурентное преимущество в борьбе за пользователя, и в то же время очередной ответ оптимизаторам, которым теперь будет труднее попасть в поисковую выдачу. Как уже упоминалось, скорее всего, с развитием персонификации все большую роль будут играть пометки к найденным страницам других пользователей, потому что мнение социума, как правило, важнее мнения машины. И в обновленной версии персонального поиска MyWeb 2.0, выпущенной Yahoo, это уже реализовано: пользователь может добавить описание и таги к любой найденной странице, сохранить ее, а также производить поиск по сохраненным страницам друзей и других пользователей, добавлять краткие описания и таги к сохраненным копиям.

Google предлагает персональный поиск в прямом смысле слова – машина будет учитывать ваши предыдущие запросы, клики на сайты, время, проведенное на них, а также (если вы предоставили информацию по своему желанию) ваш возраст, пол, место жительства и т.д., и в дальнейшем построит поисковую выдачу на основе истории, "смещая" результаты в нужную сторону.

Но, к сожалению, движение в этом направлении может быть очень трудным, потому что на данном этапе в борьбу, если не на стороне оптимизаторов, то уж точно против поисковиков, вмешалась третья сила. В частности, широкую огласку получил иск к компании Google, когда она отказалась предоставить имеющиеся у нее данные правительству США. Причем, согласно появившейся информации, другие поисковики предоставили запрашиваемые сведения. Создавшаяся ситуация сильно подрывает доверие к персональному поиску.

Вертикальный поиск
Одним из наиболее оптимальных путей развития поисковых технологий в интернете является создание вертикальных поисковиков, то есть машин, работающих в определенной узкой тематической области и сканирующих заранее определенный список сайтов. Такой подход удобен пользователю по трем причинам. Во-первых, узкое ограниченное пространство поиска во многом исключает появление "мусора", во-вторых, возможность использования глубокого текстового анализа улучшает релевантность результатов, и в-третьих, высока вероятность нахождения ответа на запрос на первых позициях, что сводит время поиска к минимуму.

Такой поиск можно условно разделить на четыре вида: по типу информации, типу файлов, тематике и географии. К примеру, самый распространенный тип информации в интернете – новости, и поисковики, специализирующиеся именно на них, широко известны. Это "Яндекс.Новости", "Новотека", Yahoo News. Для различных товаров, например, mp3-файлов, также существует множество вертикальных поисковых систем. Все более популярными становятся сайты для поиска электронных книг, например, "ПоискКниг" и "Букинист". Любопытны также информационно-поисковая система "Радиодетали" и медицинская поисковая система "Медпоиск". Среди иностранных примеров – поиск по исходным кодам программ и техдокументации Krugle от компании Google.

Локальные поисковые системы привязаны к конкретному географическому району (стране, городу, области или штату). Так, главный китайский поисковик Baidu.com предназначен для поиска по сайтам Китая и на китайском языке. Сужая охват, локальные поисковики могут сконцентрироваться на одном городе или области, как, например, "VolgInfo", который осуществляет поиск по серверам Волгограда и области, или поисковая система Пскова "Псков регион".

Впрочем, практически все поисковые системы верхнего уровня предлагают вертикальный поиск на основе своей базы данных: поиск по картинкам, по новостям, файлам, словарям, товарам и т.д. Но, разумеется, ниш для появления новых тематических поисковиков осталось достаточно. Кроме того, довольно успешно развиваются сервисы, позволяющие организовать поиск по отдельным сайтам.

Другой альтернативы нет
Борьба между поисковыми системами и оптимизаторами продолжается. Резервы есть с обеих сторон, а на карту поставлен реальный бизнес. И если не появится еще один Google, существенного перевеса не получит ни одна из сторон. Тем не менее, учитывая усложнение структуры и постоянное увеличение объемов контента, разработчикам поисковых технологий, скорее всего, в будущем придется акцентировать внимание на более глубоком анализе информации. Новые способы передачи данных и их различные реализации, такие как RSS, AJAX, Wiki, таги, подкастинг, требуют иного подхода к индексированию и анализу документов.
povava вне форума
Старый 15.02.2008, 01:17
#17
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Гигантская песочница Google

Гигантская песочница Google
Если вы занимались оптимизацией поисковых механизмов, вы наверняка слышали о песочнице Google. Непосредственное толкование немного сбивает с толку, но это важное понятие поможет добиться успеха в Google.

Что такое песочница?
Прежде чем вдаваться в дебри объяснений о том, что же такое песочница Google, мы бы хотели отметить: не все одинаково верят в существование этой самой песочницы. Песочница – лишь теория, разработанная с целью объяснить то, с чем столкнулись специалисты в области SEO. Неважно, существует песочница или нет, но мы точно знаем о ее влиянии.

Песочница Google – относительно новый фильтр, который появился в марте 2004 года. Это произошло после широко разрекламированного обновления Austin и Florida и введения так называемой новой версии Austin. Если вы не знаете, что это такое, не беспокойтесь, поскольку все уже в прошлом. Фильтр "песочница", кажется, повлиял на все новые сайты и присвоил им статус "на испытательном сроке". Результат – новые сайты могут попасть на страницы поисковых механизмов относительно быстро и даже сохранить хорошие позиции в течение нескольких недель. Когда фильтр выбирает новые сайты, говорят, что они попадают в «песочницу». Новый сайт по-прежнему будет появляться на страницах поисковых механизмов, но он не получит высокий рейтинг, несмотря на оригинальность, оптимизированный контент и качественные входящие ссылки. Фильтр не позволяет новым сайтам добиться немедленного успеха в поисковых механизмах.

Под действие фильтра "песочница" попадают почти все новые сайты за небольшим исключением. Важно помнить, что фильтр – это не наказание для вебмастеров за их уловки с новыми сайтами. Фильтр – просто испытательный срок для новых сайтов.

Фильтр «песочница» затрагивает сайты с более конкурентоспособными ключевыми словами. Если ваш сайт использует очень популярные ключевые слова, он, вероятно, дольше других останется в песочнице.

Почему существует песочница?
Ведется много споров о том, стоило ли Google вводить новый фильтр или нет. Безусловно, вебмастера, желающие обеспечить хорошую позицию в Google, не в восторге от фильтра "песочница", поскольку он не позволяет получать трафик, который несет с собой верхнее положение в Google. Однако фильтр создан не случайно, для его разработки было несколько причин.

Как только специалисты по SEO выяснили основные элементы алгоритма присвоения рейтинга Google: входящие ссылки, оригинальный контент с большим количеством ключевых слов и правильное использование anchor text, спаммеры в поисковых механизмах стали пользоваться преимуществами этих элементов. Они стали создавать сайты, которые явно нарушали политику Google, зная, что рано или поздно их занесут в черный список. Но это не имело значения. Если спаммер мог обеспечить своему сайту хорошую позицию в Google хотя бы месяц, прибыль за этот месяц покрывала расходы на создание сайта. Все, что им приходилось делать в последствии, – переделывать сайт на новом домене с немного измененным контентом. Идея спаммера была проста. Использовать трафик Google в течение как можно более длительного периода времени (пока сайт не попадет в черный список), а потом повторять все действия на новом сайте. Этот метод был очень эффективным и легким.

Задачу еще больше облегчало быстрое индексирование сайтов Google. В то время как другие поисковые механизмы индексировали сайт за несколько месяцев, Google справлялся с задачей всего лишь за месяц (а сейчас он индексирует сайты всего за несколько дней). Спаммеры поисковых механизмов с радостью пользовались щедростью Google.

Чтобы решить эту проблему Google решил пойти на компромисс. Индексирование сайтов по-прежнему было быстрым – поисковый механизм пытался найти как можно больше интересного, свежего контента – но Google больше не доверял новым сайтам. Все новые сайты должны были пройти испытательный срок. По прошествии определенного времени, если сайты проходили все другие фильтры, они получали высокий рейтинг. А потом они «покидали» песочницу и присоединялись к остальным авторитетным сайтам.

Какое влияние это оказывает на мой сайт?
Если у вас новый сайт, он наверняка попадет в песочницу. Этого следует ожидать, но вы не должны менять способы создания и рекламы сайта. Вы должны использовать фильтр "песочница" с выгодой для себя.

Google присваивает рейтинг так же, как и раньше. Сайты оцениваются по качеству входящих ссылок и качеству контента. Google и дальше будет менять методы оценки входящих ссылок и контента, но основные элементы останутся неизменными.

Пока ваш сайт находится в песочнице, вы должны использовать это время, чтобы нарастить трафик, используя обычные способы, например, написание статей, поиск посетителей, налаживание отношений с другими сайтами с целью обмениваться посетителями. Во время испытательного срока у вас есть прекрасная возможность обеспечить те элементы, которые позволят получить высокое положение в поисковых механизмах. Когда вы, наконец, покинете песочницу, у вашего сайта будет очень хорошая позиция в Google.

Находится ли мой сайт в песочнице?
Когда вебмастера узнают о существовании песочницы, они сразу задают вопрос о том, попал ли туда их сайт. Определить, находится сайт в песочнице или нет, относительно просто.

Во-первых, сайт в песочнице отличается от сайта, который занесен в черный список. Если вы ищете свой домен в Google, но не можете найти (хотя раньше он был зарегистрирован поисковым механизмом), существует вероятность того, что вас забанили. Проверить это очень легко, Введите в гугл запрос c адресом (урл) вашего сайта. Если гугл выводит в ответ “Sorry, no information is available for the URL” значит сайт забанен.

Если сайт не попал в черный список, но у него не высокий рейтинг, необходимо оценить качество контента и входящих ссылок. Следует также проверить сайт на использование ключевых слов. Помните, что сайты с более популярными ключевыми словами, скорее всего, попадут в песочницу. И, последнее, если у вашего сайта высокий рейтинг в других поисковых механизмах, а в Google низкий, он, вероятно, попал в песочницу.

Можно ли выбраться из песочницы?
Ответ «да», из песочницы можно выбраться, но надо просто подождать. Фильтр «песочница» не постоянный фильтр, и он просто призван сократить количество спама в поисковом механизме. Его задача не заключается в том, чтобы помешать людям добиться успеха. Поэтому просто продолжайте работать над своим сайтом, позже вы выберетесь из песочницы и присоединитесь к авторитетным сайтам.

Опять же, если ваш сайт попал в песочницу, вы должны использовать это время с пользой для себя. У вас есть прекрасная возможность найти источники трафика за пределами поисковых механизмов. Возможно, у вас есть другой сайт, который успешен благодаря поисковым механизмам, и вы игнорируете проверенные методы: поиск постоянных посетителей, надежные входящие ссылки партнеров. Однако если вы найдете источники трафика помимо поисковых механизмов, то вы увидите, как вырастет трафик после того, как сайт покинет песочницу.

Заключение
Google идет на многое, чтобы сократить количество спама. Иногда его обвиняют в том, что это негативно отражается на вполне законных сайтах. Это правда, но как владелец сайта вы должны поставить себя на место Google и спросить: «Что именно он ищет в сайте?» Google ищет сайты, которые предлагают качественный контент. Он до сих пор полагается на обычную систему голосования, которая впервые использовалась для присвоения рейтинга. Могут меняться принципы определения качественного контента и входящих ссылок, но основные элементы остаются неизменными.

Ни одному владельцу сайта не понравится песочница. Однако умный вебмастер сможет использовать песочницу как возможность создать сайт, от которого Google просто не сможет отказаться.
povava вне форума
Старый 18.07.2008, 23:35
#18
Интересующийся
 
Пол: Мужской
Адрес: Живу я в Харькове
Инвестирую в: Свой бизнес
Регистрация: 30.06.2008
Сообщений: 27
Благодарностей: 1
Занимаюсь реанимацией сайта, созданного в 2001 и благополучно запоротого "спецами" которые за деньги его раскручивали в течение этого времени.

Большое спасибо всем, кто порекомендовал И.Ашманова. Книга написана может, и простовато для профи (перелистал кучу литературы на балке, пока нашел ее), но доступно для "чайника" вроде меня. Кстати, если бы не совет с форума, то и с этой продавцы бы меня затюкали.

Начал проверяться по книге, с восторгом обнаружил, что "спецы" не вставили метатеги с ключевыми словами... И если до этого я не знал, почему мой сайт не всегда на первом месте, то теперь я не понимаю, как он вообще индексируется...
__________________
Детям- мороженое, Бабе - духи
https://parfum.kharkov.ua/ - Харьковский интернет-магазин парфюмерии
olevka2007 вне форума
Старый 22.08.2008, 14:16
#19
Любитель
 
Пол: Мужской
Инвестирую в: Adult
Регистрация: 18.05.2007
Сообщений: 494
Благодарностей: 27
Ответ: Литература по SEO

Цитата:
Сообщение от olevka2007 Посмотреть сообщение
Занимаюсь реанимацией сайта, созданного в 2001 и благополучно запоротого "спецами" которые за деньги его раскручивали в течение этого времени.

Большое спасибо всем, кто порекомендовал И.Ашманова. Книга написана может, и простовато для профи (перелистал кучу литературы на балке, пока нашел ее), но доступно для "чайника" вроде меня. Кстати, если бы не совет с форума, то и с этой продавцы бы меня затюкали.

Начал проверяться по книге, с восторгом обнаружил, что "спецы" не вставили метатеги с ключевыми словами... И если до этого я не знал, почему мой сайт не всегда на первом месте, то теперь я не понимаю, как он вообще индексируется...
Уважаемый не нужно быть большим специалистом что бы вывести любой сайт в топ. Главное сайт зделать правильно с точки зрения СЕО и поисковиков.
Мой метод продвижения белых проэктов прост:
Есть отличный сео сервис https://www.pr-cy.ru/. На данном сервисе проводим комплексный анализ своего сайта и сайта конкурентов, которые занимают топовые позиции. Смотрим, сравниваем и делаем выводы. Также смотрим как раскручен топовый сайт (смотрим % ключевиков в тайтле и на странице, смотрим беки и сколько их).
Делаем все тоже самое только лучше (добовляем больший % ключевиков, занимаемся раскруткой).
povava вне форума
Старый 13.02.2015, 19:41
#20
Интересующийся
 
Пол: Мужской
Инвестирую в: SEO
Регистрация: 12.02.2015
Сообщений: 20
Благодарностей: 2
Re: Литература по SEO

Очень большая подборка видео о продвижении и оптимизации - megaindex.tv , регулярно пополняется свежими записями
semen yadren вне форума
Войдите, чтобы оставить комментарий.
Быстрый переход
Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Правила форума. Штрафы и Предупреждения MMG Общий раздел 6 28.08.2014 19:05
Подарки от MoneyMakerGroup.RU mysilver Общий раздел 15 22.01.2007 20:53
Скорость форума Moneymakergroup.ru mysilver Общий раздел 14 30.11.2006 00:27