Информация для размышления:
1. При работе с гуглом заметил, что если в user agent стоит chrome-подобный браузер улетаешь в бан быстрее. Возможно, совпадение, но все может быть... Я так понимаю, что из браузера они могут вынимать информацию дополнительную - сколько вкладок открыто, историю посещений, и т.д.
2. Стоит учитывать, что сейчас многие серьезный сайты начинают учитывать Поведенческие Факторы ("микродействия" и поведение в целом). Чем больше сайт, тем больше посетителей, тем больше выборок для того чтобы обучить алгоритм определять ботов. Кому интересно, посмотрите какие задачи avito выдвигает на конкурсы kaggle (сайт про машинное обучение): определение вероятности клика по рекламе, распознавание контактных данных на фото, и т.д.
3. Также не стоит забывать про DSP — Demand Side Platform, технологические системы, которые взаимодействует рекламными сетями (Ad Networks), рекламными биржами (Ad Exchanges) и обмениваются данными в интересах рекламодателя. Изначально DSP нужно для уточнения интересов ЦА и их сегментирования, но есть кейсы, когда DSP используют как дополнительный фактор для выявления ботов.
4. Блэк-лист базы спаммеров типа Spamhouse, штук 10 разных есть. Avito пробивает по spamhouse, насколько я знаю. Поэтому проксики неплохо перед использованием пробить на наличие в black листах. Вероятность забана должна уменьшиться.