Сетки сайтов
Сетки сайтов используют для: - поднятия собственных ресурсов собственными линками - продажи линков на биржах - сбора НЧ трафа и конвертации его на Adsense, gFeed или js-выдачу PPC - продажи заказных статей (разместить статью с линкой на сайтах сетки за деньги) Отличный пример (внимательно изучите описание сеток) - всего вместе Создание сетки сайтов (доров) Идеальная сетка должна быть:
-
При регистрации доменов заполняем разичный whois, или "прайваси протект". Разное время регистрации.
-
Лучше использовать разные IP адреса, или по 10-20 сайтов на IP
-
Желательно различные регистраторы, разные ДНС на каждые 20-50 сайтов.
-
Не линковать разно-тематические сайты.
-
Не ставить линки на всю сетку с одной и той же страницы (не спамить картой).
-
Сайты маскировать под web2.0 сервисы, либо уникальный, человеческий контент (сканы книг).
-
Разные шаблоны сайтов, разная структура сайтов. На каждые 50 сайтов разные типы популярных CMS: phpBB, Drupal, Wordpress, Textpattern
-
Не ставить на всю сетку один Google Analytics или Google Adsense - попалят по pub-id
-
Не более 3-х внешних ссылок на каждой странице сайтов сетки
-
Не поднимать своей сеткой сайты заточенные под стоп-тематики (фарма, казино, порно, беттинг, иншуранс, датинг, лоанс и т.д.). Т.е. на фарма-сайт ставим линки только с фарма-сетки, а на казино - ставим линки с казино-сетки.
В реальности же, 1000 сайтов можно повесить на 4 IP, с 20-тью разными шаблонами, спамить картой, а контент нагенерить доргеном. Сетки доров (сайтов), заточенные под НЧ - могут жить годами, даже если контент нагенерен доргеном. Чужие сетки сайтов. Запросы для парсинга примеров чужих сеток доров на своих доменах. Сорри, если кого-то спалил.
-
http://www.google.com/search?q=[url%3D+tylenol+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+zantac+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+Doxycycline+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+Fluconazole+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+clotrimazole+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+keflex+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+gentamicin+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+betamethasone+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+ringtones+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+lyrics+[/url]+2009+-inurl:lyrics
-
http://www.google.com/search?q=[url%3D+casino+slot+deposit+[%2Furl]+2009
-
http://www.google.com/search?q=[url%3D+gift+[%2Furl]+2009+-inurl%3Agift
Полагаю, не сложно будет отличить дор на своём хосте от фрихоста, профиля на социалке или форуме Палим чужие сетки сайтов
-
http://www.domaintools.com - (лучший и платный) поиск по NS, email, регистратору, IP (бесплатно показывает 4 домена на IP), истории, все зоны
-
http://sitedossier.com - (лучший бесплатный) поиск по IP и NS, все зоны
-
http://1stat.ru/?show=whois поиск по имени домена, по телефону или email можно найти все сайты регистратора (домены в зоне .su и .ru).
-
http://2ip.ru/domain-list-by-ip - поиск сайтов на IP, очень полный, все зоны
-
http://www.nomina.ru/search/search_by_value.php - поиск по полям person, domain и т.д.
-
http://whois.webhosting.info - поиск по IP
-
http://www.myipneighbors.com - поиск по IP
-
http://smart-ip.net/tools/ip-domains - поиск по IP
-
http://whoistory.com - свежезареганные домены в зоне .ru, выборка зареганных по дате
-
http://domain-daily.com - свежезареганные домены в зонах .com, .net, .info, .org, .us, .biz, выборка зареганных по дате
-
http://ownerspy.com - все сайты овнера по pub-id (Google Adsense) и urchin-id (Google Analytics). Они для каждого овнера уникальны.
-
http://www.semrush.com - инструмент анализа конкурентов
Оптимизация затрат, лень, жадность, делегирование работ непрофессионалам, усталость, ошибки софта - спалить можно любую сетку. Обычно владельцы успешных сеток занимаются чем-то еще, и это что-то, почти всегда хостится на том-же VDS'е. Или хостят на том-же IP клиентов, которых прокачивают своими сетками. Очень полезно изучить подписи к профилям на форумах: http://ask-marketing-experts.com/forums http://clasione.proboards3.com/ http://forum.weblamp.net/ http://forums.digitalpoint.com/ http://forums.searchenginewatch.com/ http://forums.seochat.com/ http://forums.seroundtable.com/ http://forums.spider-food.net http://resource-zone.com/forum/ http://seo.anthonyparsons.com/forum/ http://www.abakus-internet-marketing.de/foren/ http://www.ahfb2000.com/webmaster_help_desk/index.php http://www.akamarketing.com/webmaster-forums/ http://www.bluegeckonetwork.com/ http://www.ceowebsites.com/forum/ http://www.codenewbie.com/forum/ http://www.cre8asiteforums.com/forums/ http://www.designcontest.net/forum http://www.designerstalk.com/forums/ http://www.dnlodge.com http://www.ewebdevelopment.net/forum/ http://www.frontpagewebmaster.com/ http://www.geekvillage.com/forums/ http://www.gidforums.com/ http://www.gotechforums.com/forums/ http://www.highrankings.com/forum http://www.htmlforums.com/ http://www.httppoint.com http://www.ihelpyou.com/forums/ http://www.ihelpyouservices.com/forums/ http://www.iwebtool.com/talk/ http://www.jimworld.com/apps/webmaster.forums/ http://www.markcarey.com/googleguy-says/forum.html http://www.nettalk.us/ http://www.ozzu.com http://www.promojunkie.com/forum/ http://www.searchen.com/forum http://www.searchengine-optimization.nu/phpBB/ http://www.searchengineforums.com/ http://www.seo-forums.com/ http://www.seo-guy.com/forum/ http://www.seo-news.com/cgi-bin/gforum/gforum.cgi http://www.seoproject.com/forum/ http://www.seorefugee.com http://www.siteownersforums.com/ http://www.sitepoint.com/forums/ http://www.totalwebtalk.com/forum/index.php http://www.v7n.com/forums/ http://www.webdesignforums.net/ http://www.webdesigntalk.net/ http://www.webdevforums.com/ http://www.webforumz.com http://www.webhostingtalk.com/ http://www.webmaster-forums.net http://www.webmaster-talk.com/ http://www.webmastertalk.co.uk http://www.webmasterworld.com/ http://www.webproworld.com/forum.php http://www.webworkshop.net/seoforum/index.php http://www.webxpertz.net/forums Может показаться что проанализировать сайты из подписей на форумах нереально. Но алгоритм поиска прост - ищем на форумах профили мемберов с наибольшим PR. Предположим, что PR получат самые говорливые, либо самые авторитетные. Предположим, что самые говорливые или авторитетные являются и самыми умными. Предположим, что они линкуют свои сетки на сайты из подписей, либо хостят свои "хитро-продвинутые" сайты на тех-же IP. И почти 100% вебмастеров используют один и тот-же Google Adsense аккаунт для всех своих сайтов (палится по google pub-id). Получается вполне адекватный список сайтов, способы продвижения которых стоит изучить.
Схемы перелинковки сетки Если сетка создаётся с целью продажи ссылок на ссылочной бирже, либо с целью размещения заказных тематических статей в ней, либо для сбора НЧ трафика на Adsense/PPC - то такую сетку целесообразно линковать. Если сетка для поднятия собственных сайтов/доров, то сетку лучше не линковать, по крайней мере не всю. Примеры линковки можно глянуть тут:
-
http://bormaley.com/seo/linkovka.html
-
http://avelec.ru/26-03-2009/bezopasnaya-perelinkovka-setki-sajtov
Спам сетки сайтов Прекрасные результаты даёт спам сетки прифилями. Пример: Заходим на digg.com создаём там 100 профилей. В настройках каждого профиля указываем по 10 своих сайтов из сетки. В течении 2-3-х дней оставляем по 2-3 коммента (с каждого профиля) без ссылок, типа "я в шоке", "куда катится мир", "хочу себе такую-же" и т.д., к главным новостям за день, просто чтобы засветить профиль.
Ссылки с новостей на профили юзеров не закрываются nofollow. В профилях почти всегда можно указать линк на свой сайт тоже без nofollow.
Регать профили надо с разных IP, чистить кукисы ипрочие меры предосторожности. Или покупать пачки зареганных профилей у тех, кто занимается регой профилей.
Индексация с Digg.com - практически мгновенная Внимание! Не растягивайте спам сайтов сетки дольше чем на 10 часов. Т.е. если вы засветили 10 линков из сетки в профиле Digg.com, то нужно в течении, в идеале 2-4-х часов закончить, ставить все ссылки по этой пачке. Чтобы больше не добавлять линков никогда. Например мы в 8:00 засветили на Digg.com пачку сетки, из 10 штук, заточенную под тематику "italian restaurants". В 9:00 нужно, чтобы в 10-ти топиках с PR3-4 (страниц) на разных форумах были посты с линками на наши 10 сайтов из сетки. А в 9:30 мы запустили спамилку и прогнали эти 10 PR-истых страничек (спам карты на PRистых страницах, чужих бонусных хостов) по адекватной базе. В идеале по незасранной базе. Сетка проспамленная таким способом, будет чувствовать себя очень хорошо. Хостинг для сетки сайтов
-
http://host.jonn22.com/ - отличный хостинг для сетки доров
-
http://forum.searchengines.ru/showthread.php?t=361022 - хостинг для сетки сайтов
-
http://forum.searchengines.ru/showthread.php?t=343674 - бюджетный хостинг под сетки доров
-
http://www.ixwebhosting.com/index.php/v2/pages.hostingPlans - 15 IP на аккаунт, безлимит на домены, 7,95$ в месяц, для белых сеток
Запрет ботов на сетке сайтов Если вы не делаете сетку для Yahoo, то запретить индексацию, можно используя правила: http://help.yahoo.com/l/us/yahoo/search/webcrawler/slurp-02.html В файле robots.txt прописать:
User-agent: Slurp Disallow: /
Подробнее про запрет ботов на сайтах, и пример кода тут:
-
http://forum.searchengines.ru/showpost.php?p=3174147&postcount=5
-
http://omsk777.ru/all.php?act=robotbad
Фильтровать ботов по IP. Список IP-адресов ботов тут:
-
http://iplists.com/
-
http://www.ihategoogle.org/category/ip-lists/
Внимание! Считается, что Google фильтровать по IP нереально, т.к. адреса постоянно меняются, и бегают, в том числе и региональные боты. Фильтровать ботов по useragent - php код определения бота
public function DetectBot() { $bot_list = array("Teoma", "alexa", "froogle", "Gigabot", "inktomi", "looksmart", "URL_Spider_SQL", "Firefly", "NationalDirectory", "Ask Jeeves", "TECNOSEEK", "InfoSeek", "WebFindBot", "girafabot", "crawler", "www.galaxy.com", "Googlebot", "Scooter", "Slurp", "msnbot", "appie", "FAST", "WebBug", "Spade", "ZyBorg", "rabaz", "Baiduspider", "Feedfetcher-Google", "TechnoratiSnoop", "Rankivabot", "Mediapartners-Google", "Sogou web spider", "WebAlta Crawler", "StackRambler", "Yandex", "Aport"); foreach($botlist as $bot) { if(stristr($_SERVER['HTTP_USER_AGENT'], $bot)) { return $bot; } } }
- список юзерагентов: http://www.useragentstring.com/ Поднятие сайтов сеткой
-
1000 сайтов в сетке достаточно, чтобы поднимать и держать в топе среднеконкурентную фарму (зависит от тематики сетки и PR сайтов).
-
чем больше сайтов мы поднимаем всей сеткой тем сетка слабее (имеется ввиду ссылки с разных страниц всех сайтов сетки на один и тот же сайт).
-
Оптимально поднимать сеткой из 1000 сайтов 10-20 своих сайтов. Остальное место под ссылки можно продавать, но не более 10 сайтов из сетки должны ссылаться на один и тот-же "чужой" сайт.
-
на каждой странице сетки не более 3-х ссылок, на морде сайтов из сетки не более 5-ти ссылок.