Google ужесточает методы борьбы с поисковым спамом

отметили
77
человек
в архиве
Google ужесточает методы борьбы с поисковым спамом
Борьба с недобросовестными SEOшниками ведется поисковыми движками уже много лет. Тем не менее, несмотря на все попытки поисковых сервисов ликвидировать сайты-пустышки, которые выходят в топ только благодаря «черным» методам поисковой же оптимизации, подобных сайтов все равно довольно много. На днях Мэтт Катс, глава отдела по борьбе с поисковым спамом в Google, объявил о вводе в работу новых методов борьбы с поисковым спамом, значительно более надежных, чем ранее. Понятно, что рано или поздно всякого рода «оптимизаторы» найдут выход из положения, но, по заверениям Катса, это произойдет нескоро.

Google собирается бороться не только с так называемыми «дорвеями» и прочим мусором, но и с обычными сайтами (теми же интернет-магазинами), которые нарушают правила поискового сервиса. В принципе, многие из нас слышали об интернет-магазине солнцезащитных очков, который много лет находился в топе благодаря негативным отзывам покупателей. Понятно, что кроме владельца этого интернет-магазина, который был только рад подобному эффекту, очень многие SEO-специалисты злоупотребляли и злоупотребляют «черными» методами продвижения ресурсов в Сети. Вот с такими деятелями, вернее, с их искусственно продвигаемыми в поисковой выдаче продуктами, и собирается воевать поисковик. Это война «не на жизнь, а на смерть».

К примеру, Google научился распознавать автоматические комментарии, оставляемые различными скриптами (которые, в свою очередь, применяются самими SEOшниками для своих ресурсов) с целью продвижения сайтов в выдаче поисковика. Кроме того, «радикально улучшен» метод, благодаря которому поисковик теперь сможет определять нормальные сайты, которые подверглись взлому. Этот метод был введен не так давно, и показал неплохие результаты, ну, а теперь его, по словам разработчиков, сделали намного более совершенным.

Кстати, Google ввел в работу еще один способ борьбы с некачественными сайтами — фильтр, опускающий в поисковой выдаче сайты с дублированным (скопированным откуда-либо) конетнтом, подвергся значительным изменениям, и тепе
Добавил Vlad2000Plus Vlad2000Plus 23 Января 2011
проблема (1)
Комментарии участников:
Max Folder
+3
Max Folder, 23 Января 2011 , url
Но это же не новость, а какие-то пугалки для SEOшников.
Vlad2000Plus
+5
Vlad2000Plus, 23 Января 2011 , url
Не согласен, как раз таки новостьиз категории поиска и SEO.
suare
0
suare, 23 Января 2011 , url
Хороши будут также новости о стратегии, тактике и техниках SEOшников и эффективных контрмерах. На войне как на войне. Против них бороться не нужно. Их нужно уничтожать как класс интернет-пользователей под корень, вместе с корнем и всеми интернеткорнями. Это международный синдикат организованных преступников, великолепно организованная мафия Интернета. Смерть им!
Dreammaker
+3
Dreammaker, 23 Января 2011 , url
Краткое руководство:

Для того чтобы бороться с белыми сеошниками нужно делать ужасные сайты, в которых плохая навигация, непонятные заголовки, в текстах не встречаются ключевых слова, то есть о чём идёт речь в статье не совсем понятно. Не делать отдельный титл для каждой страницы, а делать для всех типа «Самый лучший новостной сайт», чтобы пользователи не могли понять на какую страницу они переходят.

Устранив таким образом конкуренцию для продвигаемых профессиональными оптимизаторами сайтов мы удешевим продвижение и сделаем его невыгодным для бизнеса.
suare
0
suare, 23 Января 2011 , url
мы удешевим продвижение и сделаем его невыгодным для бизнеса
Ар-р-ригинально ;) Но это советы для Google по уклонению, зарыванию головы в песок по-страусиному. Типа, разберися, мол, сама. Парадоксально.

Согласен представить SEO, как бизнес, который конкурентнее нашего бизнеса и мешает бизнесу Google.

А если просто удешевить борьбу с нашей стороны? И сделать её по затратам времени, труда и других ресурсов дешевле, чем затраты SEOшников, т.е. производительней?

Производительность конкурирующих сторон всегда была последним словом в войне бизнесов. Удаление SEOшного дерьма и профилактика его появления здесь должны быть настолько малозатратны и престижны, что SEOшники будут за семь верст обегать сайты, подобные нашему и искать более слабые «жертвы».
Dreammaker
+3
Dreammaker, 23 Января 2011 , url
Это уклонение, зарывание головы в песок по-страусиному.


Я просто прикалываюсь. Я просто сам немного сеошник, не на заказ, а для своих сайтов. И скажу, что не всё ужасно как вы себе представляете. Многие вещи, которые делают сеошники — идут на пользу сайтам.
delete
+1
delete, 23 Января 2011 , url
вообще-то новость(по крайней мере для этого и подобного ему сайтов), особенно если вдуматься в малозаметное:
Google ввел в работу еще один способ борьбы с некачественными сайтами — фильтр, опускающий в поисковой выдаче сайты с дублированным (скопированным откуда-либо) конетнтом.
Max Folder
+1
Max Folder, 23 Января 2011 , url
Надо смотреть, как всё это будет работать.
С другой стороны, можно быть копипастером и получать дофига трафика не из поиска. Например, в каких-нибудь Рамблер-новостях не было (не знаю, как сейчас) сайта Life.ru, зато висело пяток воришек оттуда.
Если на н2 скопировано 5 строчек, но под ними 500 строчек оригинальных комментариев, то скопированное просто теряется в потоке уникального контента.
delete
+2
delete, 23 Января 2011 , url
это и так понятно что все зависит от реализации самих алгоритмов, но как ни крути, этот нюанс немаловажный, а что самое обидное черных SEO-шников этот шаг гугла никак не остановит. на сегодня поиск — это реальный кошмар, в сравнении с тем что было даже 5-7 лет назад. у меня уже ни один из запросов что в google, что в яндекс не обходится без дополнительных операторов. думаю идеальным решением было бы какое-нибудь SDK от Google, а еще лучше универсальная среда разработки от поисковиков, с возможностью прикрутить к любому движку сайта для того чтобы помеченное «как спам» передавалось бы в общую базу к которой могли бы обращаться поисковики и тем самым регулировать тИЦ-ы и PR-ы. как говорится «не можешь сделать сам…».
Max Folder
+1
Max Folder, 23 Января 2011 , url
чтобы помеченное «как спам» передавалось бы в общую базу

И у Гугла и у Яндекса есть возможность пожаловаться на спам. Правда, найти их простому человеку непросто. У Яндекса есть Яндекс.Бар, в котором, вроде бы, есть кнопочка для жалоб на спам.
delete
0
delete, 24 Января 2011 , url
да, но я имею ввиду другое! к примеру здесь ссылка спамера помечается нами как спам, но гугл-то ее все равно проиндексирует(если успеет), а так бы она попала в общую базу спамеров. мною имеется ввиду и другое — к примеру комментарий со спамом можно было бы пометить как спам, а не только заминусовать, а представьте такую реализацию в масштабе всего интернет.… вот уж где уродцы-спамеры посливались бы.
понимаю есть еще и нечестные конкуренты, могущие проспамить от вашего имени, но что-то с поисковиками надо делать и с чего-то начинать, думаю и защититься от выходок подобных конкурентов можно, тем более что устраивать подобные войны спамя от лица другого, и большой вопрос на сколько изменится рейтинг(с учетом потерь)… ради нескольких строк в результатах поиска?
Max Folder
+1
Max Folder, 24 Января 2011 , url
Есть скользкий момент — не всегда то, что помечается на н2 спамом, является спамом с точки зрения поисковых систем. Например, какие-нибудь наблюдения сеошников неинтересны большинству здешней аудитории, но интересны другим сеошникам. Хотя много и явного спама.
Мне кажется, что разумнее поисковый спам отсекать средствами поисковых систем.
d41d8cd98f00b2
+1
d41d8cd98f00b2, 23 Января 2011 , url
== очень толсто ==
Достаточно запретить индексировать сайты, где нет хотя бы одной страницы с https с подписанным сертификатом. Пускай даже будет rapidssl за 5-10 долларов. Или даже бесплатный startcom. Все эти SEO-шные алгоритмы внезапно окажутся бесполезными и цены на услуги взлетят до небес, т.к. бизнес будет очень затратным и в 99% случаях потеряет самоокупаемость.

Сколько там у истинных SEOшников сайтов? От 50000 вроде на одного черного сеошника. Ну вот надо будет 50к сертификатов держать, что превратит бизнес в адЪ. Так и решиться вся проблема.

Можно даже не запрещать индексировать, а банально давать приоритет в выдаче сайтам с поддержкой валидного ssl и годным сертификатом. И бизнес будет лучше идти у доверенных CA, хотя это попахивает картельным сговором уже.
TNet
0
TNet, 24 Января 2011 , url
Допустим гугл так сделает. Представляю его выдачу из 2х страниц по запросу «интернет».
Max Folder
+1
Max Folder, 24 Января 2011 , url
Тогда уж Гуглу надо сделать платную регистрацию — это проще и выгоднее, зачем отдавать деньги какому-то rapidssl?
de3c984b
+4
de3c984b, 23 Января 2011 , url
Ничего принципиально нового, продолжается гонка вооружений поисковиков и СЕОшников.


Войдите или станьте участником, чтобы комментировать