Комментарии участников:
Вообще то заботится о качестве новости в первую очередь должен тот, кто её выставляет. А «всевидящее око читающих» будет её оценивать, а заодно оценивать и выставляющего.
Предлагаю разработать порядка 48 критериев для оценки источников. Два-три показателя — не создадут презентативной выборки, позволяющей плавно и достоверно выводить сайт в абсолютно надежные, или наоборот — в абсолютно ненадежные… По аналогии в PR или ТИЦ, которыми пользуются поисковые системы для оценки источников…
Я думаю критерии лучше не формализовать (да это у нас и невозможно), а приводить аргументы (например примеры явно недостоверных новостей).
Сомнительная инициатива. У нас даже государство банит не сайты, а материалы, поскольку сайты включаются после признания ошибки. Для бана конкретны материалов, функционала news достаточно.
Сейчас можно за 15 минут сделать сайт с любой «новостью», хоть об отставке Путина. Смысл распространять недоброкачественную информацию?
1. Если ресурс систематически распространяет недостоверную информацию — тогда зачем он нужен?
2. Проверить большинство новостей ньюсхантер просто физически не может. Вы, например, если событие новости происходит в Москве, не едите ведь в Москву, чтобы проверить, действительно ли данное событие имело место?
2. Проверить большинство новостей ньюсхантер просто физически не может. Вы, например, если событие новости происходит в Москве, не едите ведь в Москву, чтобы проверить, действительно ли данное событие имело место?
а почему б не разработать ботакоторый бы проверял текст по ссылки на уникальность и если гугля иил яндекс находили аналогичный текст ранее где то… то предлагать изменить источкин новости!
это не устраняет основную проблему в сео и вебмастеринге, что сайт, который является первоисточником, необязательно будет проиндексирован в первую очередь и более того, даже если будет проиндексирован — необязательно контент попадет быстрее в индекс.
Для примера есть сайт вася-пупкин.ру, который опубликовал новость о том, что в задрыпыпинске приземлилось НЛО (считаем, что новость правдивая и качественно описана), но так как сайт обновляется редко, то поисковый бот на него заходит редко (раз в пару недель), а вот лайфгнус.ру или глента.су какая-нибудь отслеживает разные новости на разных сайтах и опубликовала рерайт. И что? Так как к последним сайтам приучен быстробот (специальный бот для новостных и прочих ресурсов с частообновляемым контентом), то и новость у них окажется в индексе быстрее.
Так что не все так просто.
Для примера есть сайт вася-пупкин.ру, который опубликовал новость о том, что в задрыпыпинске приземлилось НЛО (считаем, что новость правдивая и качественно описана), но так как сайт обновляется редко, то поисковый бот на него заходит редко (раз в пару недель), а вот лайфгнус.ру или глента.су какая-нибудь отслеживает разные новости на разных сайтах и опубликовала рерайт. И что? Так как к последним сайтам приучен быстробот (специальный бот для новостных и прочих ресурсов с частообновляемым контентом), то и новость у них окажется в индексе быстрее.
Так что не все так просто.