خواندن پست ها به عنوان
نحوه تایید اینکه آیا یک سایت با استفاده از دستگاه fingerprinting
و
انسان یا ربات: پشت صحنه چک در مقابل CAPTCHA
و دنبال لینک در آنها، من تعجب کردم چه روش های جدیدتر، در صورت وجود، می توانم در سال 2018 استفاده کنم تا به طور منطقی تشخیص دهم که HTTP یک مرورگر واقعی با یک انسان در پشت آن است. این امر GDPR تحمل و چنین در ذهن است.
این بدون استفاده از captcha های نفوذی و غیره خواهد بود
فرض کنید بازدید کننده واقعا می خواهد اطلاعات ما، اما به طوری که scrapers تنبل و کمتر تنبل.
همچنین آدرس های IP بعید است که اسکرپ کمتر تنبل در یک پایگاه داده از اسکرپرهای شناخته شده برجسته باشد. آنهایی که قاطع هستند مانند DDOS رفتار می کنند مگر آنکه آنها به دنبال نابودی سرور نباشند. اما یک IP یا محدوده CIDR را مسدود می کند و از هرگز از آن شنیده نمی شود.
در نهایت تصور می شود که اسکرپرهای کمتر تناسلی وب سایت را با کد خاصی برای سایت تعیین می کنند.
با کنترل کامل مشتری و سرور از جمله فایروال ها چه چیزی می تواند راه های غیر مانعی برای کاهش تعداد اسکرپر ها برای کمک به انسان ها باشد؟