
Проверка уникальности текста - одна из самых бессмысленных вещей, которые мне известны. Ну да, хорошо, тексты, порожденные исключительно моим воспаленным (просто словосочетание просится на язык, не обращайте внимания) мозгом, никогда не оказываются уникальными. Это я могу понять. Я же пользуюсь словами русского языка, сервис показывает мне, откуда я их украла. С рерайтом куда интереснее. Можно убрать выделенные словосочетания, поскольку они встречаются на других сайтах. Но это совсем не значит, что процент уникальности станет выше. Он может стать существенно ниже. Таковы алгоритмы. Программы не мы, мы не программы. Но больше всего мне нравится, когда я переставляю два слова местами, и у меня из 52% уникальности делается 86%. Мэджик! Жаль только, что никогда не известно заранее, какие именно слова нужно переставить. Так иногда сидишь по два часа и тасуешь.
Ну и, если у тебя задание добиться 80%, никогда не будет 80. Сидишь, тасуешь... 77. 78. 79. Потом сразу делается 100. Это закон, по-другому никогда не выходит. Ну а если нужно 70%, то обычно после 69 наступает 85-86 (когда не наступает 56).
Разумеется, все знают, как это работает - вот так и работает. Но все равно все хотят процентов уникальности. Потому что роботы будут проверять примерно так же. Хотя никто толком не знает, по-моему, какой результат получится у роботов. Но все надеются, что примерно такой же, как у текста-ру. А что делать, адвего ведь платный. Роботы правят миром, чо.