Комментарии участников:
Хороши будут также новости о стратегии, тактике и техниках SEOшников и эффективных контрмерах. На войне как на войне. Против них бороться не нужно. Их нужно уничтожать как класс интернет-пользователей под корень, вместе с корнем и всеми интернеткорнями. Это международный синдикат организованных преступников, великолепно организованная мафия Интернета. Смерть им!
Краткое руководство:
Для того чтобы бороться с белыми сеошниками нужно делать ужасные сайты, в которых плохая навигация, непонятные заголовки, в текстах не встречаются ключевых слова, то есть о чём идёт речь в статье не совсем понятно. Не делать отдельный титл для каждой страницы, а делать для всех типа «Самый лучший новостной сайт», чтобы пользователи не могли понять на какую страницу они переходят.
Устранив таким образом конкуренцию для продвигаемых профессиональными оптимизаторами сайтов мы удешевим продвижение и сделаем его невыгодным для бизнеса.
Для того чтобы бороться с белыми сеошниками нужно делать ужасные сайты, в которых плохая навигация, непонятные заголовки, в текстах не встречаются ключевых слова, то есть о чём идёт речь в статье не совсем понятно. Не делать отдельный титл для каждой страницы, а делать для всех типа «Самый лучший новостной сайт», чтобы пользователи не могли понять на какую страницу они переходят.
Устранив таким образом конкуренцию для продвигаемых профессиональными оптимизаторами сайтов мы удешевим продвижение и сделаем его невыгодным для бизнеса.
мы удешевим продвижение и сделаем его невыгодным для бизнесаАр-р-ригинально ;) Но это советы для Google по уклонению, зарыванию головы в песок по-страусиному. Типа, разберися, мол, сама. Парадоксально.
Согласен представить SEO, как бизнес, который конкурентнее нашего бизнеса и мешает бизнесу Google.
А если просто удешевить борьбу с нашей стороны? И сделать её по затратам времени, труда и других ресурсов дешевле, чем затраты SEOшников, т.е. производительней?
Производительность конкурирующих сторон всегда была последним словом в войне бизнесов. Удаление SEOшного дерьма и профилактика его появления здесь должны быть настолько малозатратны и престижны, что SEOшники будут за семь верст обегать сайты, подобные нашему и искать более слабые «жертвы».
Это уклонение, зарывание головы в песок по-страусиному.
Я просто прикалываюсь. Я просто сам немного сеошник, не на заказ, а для своих сайтов. И скажу, что не всё ужасно как вы себе представляете. Многие вещи, которые делают сеошники — идут на пользу сайтам.
вообще-то новость(по крайней мере для этого и подобного ему сайтов), особенно если вдуматься в малозаметное:
Google ввел в работу еще один способ борьбы с некачественными сайтами — фильтр, опускающий в поисковой выдаче сайты с дублированным (скопированным откуда-либо) конетнтом.
Надо смотреть, как всё это будет работать.
С другой стороны, можно быть копипастером и получать дофига трафика не из поиска. Например, в каких-нибудь Рамблер-новостях не было (не знаю, как сейчас) сайта Life.ru, зато висело пяток воришек оттуда.
Если на н2 скопировано 5 строчек, но под ними 500 строчек оригинальных комментариев, то скопированное просто теряется в потоке уникального контента.
С другой стороны, можно быть копипастером и получать дофига трафика не из поиска. Например, в каких-нибудь Рамблер-новостях не было (не знаю, как сейчас) сайта Life.ru, зато висело пяток воришек оттуда.
Если на н2 скопировано 5 строчек, но под ними 500 строчек оригинальных комментариев, то скопированное просто теряется в потоке уникального контента.
это и так понятно что все зависит от реализации самих алгоритмов, но как ни крути, этот нюанс немаловажный, а что самое обидное черных SEO-шников этот шаг гугла никак не остановит. на сегодня поиск — это реальный кошмар, в сравнении с тем что было даже 5-7 лет назад. у меня уже ни один из запросов что в google, что в яндекс не обходится без дополнительных операторов. думаю идеальным решением было бы какое-нибудь SDK от Google, а еще лучше универсальная среда разработки от поисковиков, с возможностью прикрутить к любому движку сайта для того чтобы помеченное «как спам» передавалось бы в общую базу к которой могли бы обращаться поисковики и тем самым регулировать тИЦ-ы и PR-ы. как говорится «не можешь сделать сам…».
чтобы помеченное «как спам» передавалось бы в общую базу
И у Гугла и у Яндекса есть возможность пожаловаться на спам. Правда, найти их простому человеку непросто. У Яндекса есть Яндекс.Бар, в котором, вроде бы, есть кнопочка для жалоб на спам.
да, но я имею ввиду другое! к примеру здесь ссылка спамера помечается нами как спам, но гугл-то ее все равно проиндексирует(если успеет), а так бы она попала в общую базу спамеров. мною имеется ввиду и другое — к примеру комментарий со спамом можно было бы пометить как спам, а не только заминусовать, а представьте такую реализацию в масштабе всего интернет.… вот уж где уродцы-спамеры посливались бы.
понимаю есть еще и нечестные конкуренты, могущие проспамить от вашего имени, но что-то с поисковиками надо делать и с чего-то начинать, думаю и защититься от выходок подобных конкурентов можно, тем более что устраивать подобные войны спамя от лица другого, и большой вопрос на сколько изменится рейтинг(с учетом потерь)… ради нескольких строк в результатах поиска?
понимаю есть еще и нечестные конкуренты, могущие проспамить от вашего имени, но что-то с поисковиками надо делать и с чего-то начинать, думаю и защититься от выходок подобных конкурентов можно, тем более что устраивать подобные войны спамя от лица другого, и большой вопрос на сколько изменится рейтинг(с учетом потерь)… ради нескольких строк в результатах поиска?
Есть скользкий момент — не всегда то, что помечается на н2 спамом, является спамом с точки зрения поисковых систем. Например, какие-нибудь наблюдения сеошников неинтересны большинству здешней аудитории, но интересны другим сеошникам. Хотя много и явного спама.
Мне кажется, что разумнее поисковый спам отсекать средствами поисковых систем.
Мне кажется, что разумнее поисковый спам отсекать средствами поисковых систем.
== очень толсто ==
Достаточно запретить индексировать сайты, где нет хотя бы одной страницы с https с подписанным сертификатом. Пускай даже будет rapidssl за 5-10 долларов. Или даже бесплатный startcom. Все эти SEO-шные алгоритмы внезапно окажутся бесполезными и цены на услуги взлетят до небес, т.к. бизнес будет очень затратным и в 99% случаях потеряет самоокупаемость.
Сколько там у истинных SEOшников сайтов? От 50000 вроде на одного черного сеошника. Ну вот надо будет 50к сертификатов держать, что превратит бизнес в адЪ. Так и решиться вся проблема.
Можно даже не запрещать индексировать, а банально давать приоритет в выдаче сайтам с поддержкой валидного ssl и годным сертификатом. И бизнес будет лучше идти у доверенных CA, хотя это попахивает картельным сговором уже.
Достаточно запретить индексировать сайты, где нет хотя бы одной страницы с https с подписанным сертификатом. Пускай даже будет rapidssl за 5-10 долларов. Или даже бесплатный startcom. Все эти SEO-шные алгоритмы внезапно окажутся бесполезными и цены на услуги взлетят до небес, т.к. бизнес будет очень затратным и в 99% случаях потеряет самоокупаемость.
Сколько там у истинных SEOшников сайтов? От 50000 вроде на одного черного сеошника. Ну вот надо будет 50к сертификатов держать, что превратит бизнес в адЪ. Так и решиться вся проблема.
Можно даже не запрещать индексировать, а банально давать приоритет в выдаче сайтам с поддержкой валидного ssl и годным сертификатом. И бизнес будет лучше идти у доверенных CA, хотя это попахивает картельным сговором уже.
Тогда уж Гуглу надо сделать платную регистрацию — это проще и выгоднее, зачем отдавать деньги какому-то rapidssl?