چگونه مایکروسافت فروشگاه را در ویندوز 10 پرو از طریق فایروال غیرفعال یا مسدود کنیم؟

من می خواهم مایکروسافت فروشگاه را در ویندوز 10 طرفدار در یک محیط شرکت مسدود کنم. با خواندن مقاله های مرتبط در مورد این موضوع و آزمایش بر روی دستگاه من ، می بینم که ویندوز 10 پرو از این عملکرد پشتیبانی نمی کند (یا از طریق Group Policy [not recommended by my Manager] یا Registry.

اکنون ، من راه حل دیگری را انتخاب می کنم ، یعنی مسدود کردن اگر امکان پذیر باشد ، آیا کسی می تواند این قوانین را به من نشان دهد که چگونه می تواند Microsoft Store را از طریق فایروال مسدود کند؟ من از ابزاری برای پیکربندی این قانون استفاده می کنم.

رمزگذاری – مایکروسافت ارائه دهندگان خدمات رمزنگاری

من چند سوال در مورد ارائه دهندگان خدمات رمزنگاری مایکروسافت دارم. من یک روش رمزنگاری AES ایجاد می کنم که کلید آن با استفاده از RSA رمزگذاری شده است. من تلاش می کنم راهی برای ذخیره کلید RSA پیدا کنم. متاسفانه یک دستگاه سخت افزاری در این نقطه یک گزینه نیست. با آن گفت که کلید خصوصی RSA در CSP یک مکان مناسب است؟ از چیزی که می توانم بگویم این است که من در محیط اعتماد صفر نیستم. https://docs.microsoft.com/en-us/dotnet/standard/security/how-to-store-asymmetric-keys-in-a-key-container

برای ارائه دهندگان خدمات رمزنگاری آیا کلید RSA همچنان ادامه دارد هرچند راه اندازی مجدد و دوست داشتن. آیا چیزی ویژه ای برای انجام این کار باید وجود داشته باشد؟ اگر کجا می توانم این را تایید کنم، همچنان ادامه دارد؟ آیا آن را در رجیستری یا در جای دیگری قرار داده اید؟

آیا این مسیر صحیح است؟

C: ProgramData Microsoft Crypto RSA MachineKeys

به نظر می رسد که هر بار که یک ارائه دهنده جدید ایجاد می کنم به روز می شود.

آیا وقت آن است که به طور کامل ممنوع شود؟


برای تمام نگرانی های نظری در مورد محدودیت های سیستم های تشخیص چهره، هیچ چیز مانند تجربه شخصی برای چکیدن نقطه خانه وجود دارد. اخیرا تأیید شد که ACLU یک آزمایش جالبی را با استفاده از سیستم شناسایی ابر مبتنی بر ابر آمازون انجام داد که Privacy News Online چند ماه پیش مورد بحث قرار گرفت:

با استفاده از Rekognition، ما یک پایگاه داده شخصی و ابزار جستجو با استفاده از 25،000 عکس دستگیر شده در دسترس عمومی ساختیم . سپس این پایگاه داده را در برابر عکس های عمومی هر عضو فعلی مجلس و سنا جستجو کردیم. ما از تنظیمات مطابقت پیش فرض استفاده کردیم که آمازون برای شناخت شناخته شده است.

نتیجه قابل توجه بود: نرم افزار آمازون با اشتباه 28 عضو کنگره مطابقت داشت و آنها را به عنوان افراد دیگر که برای جرم بازداشت شده بودند شناسایی کردند. به ویژه اضطراب، تعصب نژادی نشان داده شده توسط مسابقات بود: نزدیک به 40٪ از بازی های دروغین Recognition در آزمون ACLU از مردم رنگ بود، حتی اگر آنها تنها 20٪ از کنگره را تشکیل می دهند. همچنين قابل توجه بود که اين آزمايش هزينه صرف فقط 12.33 دلار است که نشان ميدهد که چطور سيستمهاي تشخيص چهره به چهره تبديل شده است. این بدان معنی است که مانع گسترش آنها به طور گسترده ای کم است.

جای تعجب نیست که برخی از سیاستمداران آمریکایی از این نتایج خوشحال نیستند. Cnet نسخه هایی از نامه های ارسال شده توسط برخی از آنها را به مدیر عامل آمازون، جف بیسوس دریافت کرد. یکی اشاره کرد که چرا تعصب نژادی آشکار سازی Rezognition چنین نگرانی – چیزی است که کانکور سیاه کانادایی در ماه مه، زمانی که جزئیات سیستم شناخت شناخته شد در ابتدا کشف شد. همانطور که در نامه اخیر آمده است:

با توجه به نتایج این آزمون، ما در مورد تاثیر مخرب این ابزار – اگر بدون کالیبراسیون مناسب، سازگار و دقیق بدون چیدمان – در جوامع رنگی: مهاجران وجود داشته باشد؛ معترضان به صورت صلح آمیز مونتاژ و دیگران برای درخواست بازپرداخت شکایات از دولت دعوت می کنند؛ یا هر گروه دیگر محروم شده.

کالیبراسیون یک موضوع کلیدی برای سیستم های تشخیص چهره است. اگر داده های آموزشی غیررسمی و یا استفاده نادرست باشد، سیستم نتایج بی نظیر تولید می کند. بسیاری از افراد احتمالا مسابقات به دست آمده با تشخیص چهره به عنوان قابل اعتماد را مشاهده می کنند، به لطف یک نوع استدلال دایره ای که از آن زمان مطابقت دارد، باید درست باشد. این مورد نیست: همانطور که آزمایشی ACLU نشان می دهد، یک سیستم پنهان شده به درستی پیکربندی خواهد ملاقات هایی پیدا کرد که در آنها وجود ندارد. یکی دیگر از مسائل مطرح شده توسط آمازون پاسخ به این حادثه، نوشته شده توسط مت وود، که مسئول آموزش ماشین آلات در خدمات وب آمازون است. او اشاره کرد که یک متغیر مهم وجود دارد که کمک می کند تا تعیین کند که کدام یک از بازی ها مناسب است، چرا که از نظر مثبت کاذب تولید می شود – مسابقات آشکار که نادرست است. این به اصطلاح "آستانه اعتماد" است:

آستانه اطمینان 80٪ که توسط ACLU استفاده می شود بسیار کم برای اطمینان از شناسایی دقیق افراد است. ما انتظار داریم که در این سطح اعتماد به نفع مثبت کاذب باشد. ما توصیه می کنیم که 99٪ موارد مورد استفاده را داشته باشیم که مسابقات شباهت بسیار دقیق روی آنها بسیار مهم است (همانطور که در اسناد عمومی ما نشان داده شده است).

پست آمازون توضیح داد که این شرکت آزمایش خود را انجام داد، از کنگره ایالات متحده در میان مجموعه ای از بیش از 850،000 چهره معمولا در دانشگاه استفاده می شود. با وجود مجموعه داده های بسیار بزرگ، اعتماد به نفس صفر بود که سطح اطمینان به سطح 99٪ دقیق تر تنظیم می شد. همانطور که آمازون به درستی یادآوری می کند، این نشان دهنده اهمیت حیاتی انتخاب سطح اطمینان مناسب هنگام استفاده از سیستم های تشخیص چهره است – چیزی که به ندرت مورد بحث قرار می گیرد. با این حال، سخنگوی ACLU به Ars Technica اشاره کرد که این استدلال به وضوح توسط یک پست در سایت آمازون تشدید شده است که جزئیات آن را توضیح می دهد که چگونه نیروهای پلیس می توانند از Recognition برای شناسایی افراد مورد علاقه برای اجرای قانون استفاده کنند که سطح اطمینان 85٪ ، نه 99٪.

پاسخ آمازون به نتایج ACLU همچنین بیان کرد که در شرایط واقعی در زمینه ایمنی عمومی و اجرای قانون، شناخت آمازون "تقریبا به طور انحصاری برای کمک به محدود کردن زمینه و اجازه دادن به انسان به سرعت در نظر گرفتن و بررسی گزینه ها با استفاده از قضاوت خود" از اجازه دادن به سیستم برای تصمیم گیری کاملا مستقل. این ممکن است دید بیش از حد خوش بینانه باشد.

یکی از دلایل اصلی گسترش گسترده سیستم های تشخیص چهره کم هزینه این است که آنها بخشی معمول از نظارت پلیس خواهند شد، به عنوان مثال بخشی از سیستم جدید FirstNet که هفته گذشته مورد بحث قرار گرفت. احتمالا این فن آوری در موقعیت هایی قرار می گیرد که افسران نیاز به تصمیم گیری سریع دارند؛ ممکن است زمان زیادی برای بررسی و بررسی گزینه ها وجود نداشته باشد – آنها باید عمل کنند. تمایل طبیعی برای اعتماد به سیستم های تشخیص چهره بدون نگرانی در مورد مسائل فنی مانند سطح اطمینان است. تصور اینکه اشتباهات ساخته شده است، شاید با عواقب مرگبار باشد، آسان است. حتی آکسون، بزرگترین ارائه دهنده دوربین های بدن در ایالات متحده، فکر می کند که این نگرانی است.

Matt Wood از آمازون پست خود را با پشتیبانی از درخواست قبلی مایکروسافت برای مقررات دولت به پایان می رساند:

یادگیری ماشین ابزار بسیار ارزشمند برای کمک به سازمان های اجرای قانون و در حالی که نگران است که آن را به درستی اعمال می شود، ما نباید فر را دور بریزیم، زیرا دمای می تواند اشتباه تنظیم شود و پیتزا را بسوزاند. با این حال، ایده بسیار منطقی این است که دولت برای اندازه گیری و تعیین درجه حرارت (یا سطح اطمینان) که می خواهد آژانس های اجرای قانون برای کمک به کار ایمنی عمومی آنها را ارزیابی کند مشخص است.

پیش از این، پیشنهادات این چگونگی وجود دارد انجام شده از طریق تنظیم یک گزارش 2016 تحت عنوان «عضویت دائمی: تشخیص چهره غیرقانونی پلیس در آمریکا» از گروهی در مرکز حفظ حریم خصوصی و فناوری در قانون جورج تاون نه تنها این مشکل را تحلیل کرد، بلکه برخی از راه حل ها را ارائه داد. این شامل قانون تشخیص چهره مدل و سیاست استفاده از تشخیص چهره مدل پلیس است.

با این حال، وودرو هارتزوگ، استاد حقوق و علوم کامپیوتری در دانشکده حقوق دانشگاه و دانشگاه کالج کامپیوتر و اطلاعات علمی شمال شرقی، دیدگاه بدبینانهتری پیدا میکند. او معتقد است که یک چارچوب قانونی کافی نیست – او می گوید ما باید ممنوعیت کامل فن آوری را داشته باشیم:

از آنجا که فناوری تشخیص چهره وعده ترجمه می دهد که ما چه کسی هستیم و در همه جا به اطلاعات پیگیری می پردازیم که تقریبا بلافاصله ذخیره می شود ، به اشتراک گذاشته شده و تجزیه و تحلیل شده است، توسعه آینده آن تهدید می کند که ما دائما در معرض خطر قرار بگیریم. آینده شکوفایی انسان بستگی به فناوری تشخیص چهره دارد که قبل از اینکه سیستم در زندگی ما وارد شود، ممنوع است. در غیر این صورت، مردم نمی دانند که چه چیزی در اختیار عموم قرار می گیرد بدون اینکه به طور خودکار شناسایی، شناسایی شده و به طور بالقوه مورد سوء استفاده قرار گیرد. در چنین جهانی، منتقدان فناوری تشخیص چهره از بین می روند، خاموش می شوند و یا از بین می روند.

فراخوانی هارتزوگ جسور و معقول است اما آیا این واقع گرایی است؟ آیا نیروهای پلیس یا سازمان های اطلاعاتی احتمالا تمایل دارند که قابلیت های نظارتی را که به رسمیت شناختن چهره ارائه می دهند، رد کنند؟ حتی اگر استفاده از فناوری ممنوع است، زمانیکه در حال گسترش است، سخت است که بگوییم: هر دوربین مدار بسته، هر عکس، به طور بالقوه می تواند به یک سیستم تشخیص چهره تبدیل شود و هیچ کس نمی داند. به همان اندازه، فناوری و تخصص در حال حاضر از آنجا خارج شده است، و هیچ راهی برای بازگشت به آن وجود ندارد. این همواره توسط کسانی که می خواهند قدرت خود را مورد استفاده قرار می دهند و مورد آزار و اذیت قرار گیرند و کسانی که مایل به رد کردن یا صرفا نادیده گرفتن عواقب قانونی که ممکن است در بعضی حوزه های قضایی پیگیری شود، مورد استفاده قرار گیرد.

شاید بهترین مواردی که ما امیدوار باشیم، بدترین عوارض سیستم تشخیص چهره. واقعیت این است که مایکروسافت و آمازون در حال حاضر مایل به حرکت در این جهت هستند، به این معنی است که شرکت های تکنولوژی دیگر احتمالا همین کار را خواهند کرد. برخی از سیاستمداران آمریکایی به سختی متوجه شدند که چگونه سیستم های تشخیص چهره نقص می تواند باشد. شاید آنها شروع به قدردانی از عواقب جدی که ممکن است از این نوع مثبت کاذب حاصل شود. در نتیجه، اکنون به نظر می رسد یک لحظه مناسب برای شروع گفتگو گسترده تر در مورد تنظیم فناوری قبل از اینکه دیر شود، و وضعیت به همان اندازه بدتر از هارتزوگ ترس می شود.

تصویر ویژه توسط ACLU

درباره Glyn Moody [19659020] Glyn Moody یک روزنامه نگار آزاد است که در مورد حفظ حریم خصوصی، نظارت، حقوق دیجیتال، منبع باز، کپی رایت، اختراعات و مسائل مربوط به سیاست کلی با فن آوری دیجیتال می نویسد و صحبت می کند. او شروع به پوشش استفاده از اینترنت در سال 1994 کرد و اولین ویژگی اصلی در مورد لینوکس را که در اوت 1997 در Wired ظاهر شد، نوشت. کتاب او "Code Rebel Code" اولین و تنها تاریخ دقیق افزایش منبع باز است VPN Service "title =" VPN Service "/> در حالی که کار بعدی خود،" Code of Life of Life "، به بررسی بیوانفورماتیک ها – تقاطع محاسبات با ژنومیک می پردازد


   </div>
<p><a href=

آیا فناوری تشخیص چهره باید توسط دولت تنظیم شود؟ مایکروسافت می گوید "بله"


فناوری تشخیص چهره یکی از جدی ترین تهدیدات حفظ حریم خصوصی است. این به دو دلیل اصلی است. شاید مهمترین نکته این است که تغییر چهره ما تقریبا غیرممکن است: جراحی جدی پلاستیک جراحی، چند تکنیک موثر برای پنهان کردن ظاهر بدن ما وجود دارد. ماسک ها ممکن است ویژگی های ما را پنهان کنند، اما برای استفاده در یک روال معمول بیش از حد دست و پا گیر هستند و خیلی واضح است. دلیل دیگر این است که فناوری تشخیص چهره به سرعت در حال بهبود است و احتمالا این امر به لطف پیشرفت هر دو سختافزار و نرم افزار ادامه خواهد یافت.

این پیشرفتها به این معنی است که سیستمهای ارزان قیمت، تقریبا کامل تشخیص چهره به زودی به طور معمول در دسترس هر دو دولت و شرکت ها در همه جا. مرگ نامعلوم عمومی یک چشم انداز واقعی است. مشکل به اندازه کافی روشن است، اما آنچه در مورد آن انجام می شود، خیلی آشکار نیست. براد اسمیت، رئیس جمهور و مشاور ارشد مایکروسافت، در یک مداخله غیرمنتظره، راه حل خود را ارائه کرده است. از آنجایی که آن را به عنوان مقاله 3500 کلمه در وبلاگ اصلی مایکروسافت ظاهر می شود، احتمالا نماینده رسمی این شرکت است. در اینجا چیزی است که اسمیت – و به این ترتیب کارفرمای خود – پیشنهاد می کند:

تنها راه موثر برای مدیریت استفاده از تکنولوژی توسط دولت، دولت برای فعالانه برای مدیریت این استفاده است. و اگر دغدغه هایی در مورد چگونگی استفاده گسترده از تکنولوژی در سراسر جامعه وجود داشته باشد، تنها راه برای تنظیم این استفاده گسترده، این است که دولت این کار را انجام دهد. این در واقع همان چیزی است که ما معتقدیم امروز مورد نیاز است – ابتکار دولت برای تنظیم استفاده مناسب از تکنولوژی تشخیص چهره، ابتدا توسط یک کمیسیون تخصصی و کارشناس اطلاع داده شده است.

این امر قابل توجه است، با توجه به تاریخچه کامل مایکروسافت با مداخلات دولت. به خصوص از آنجاییکه پرونده اوراق بهادار که توسط دولت ایالات متحده علیه شرکت در سال 2001 به ارمغان آورده است، مایکروسافت عملا مخالف هر گونه دخالت دولت در بازارهای خود است. واقعیت این است که آن را نه تنها در تصميم گيري در تنظيم تشخيص چهره موافق است، بلکه رهبري را که به طور فعال آنها را فراخوانده است، قابل توجه است. این نشان دهنده جدی بودن مشکل و وضعیت و فرهنگ و تغییر مایکروسافت است.

در مقاله خود، اسمیت، نگرانی های چشمگیر در مورد دولت ها را با استفاده از تشخیص چهره در سطح گسترده در مراسم تجمع پایگاه های داده ای که دیدگاه های مردم را ثبت می کند، یا شرکت ها ردیابی همه بازدید کنندگان در داخل فروشگاه ها، و به اشتراک گذاری اطلاعات با یکدیگر در مورد آنچه که مشتریان مرور و خرید. او همچنین پارادوکس را یادآوری می کند که حتی به عنوان تکنولوژی تشخیص چهره پیشرفت می کند، در بعضی موارد با محدودیت های ساخته شده در آن محدود می شود: سیستم های امروز برای مردان سفید پوست بیشتر از زنان سفید پوست کار می کنند و در تشخیص افراد با رنگ های سبک تر دقیق تر است. مردم رنگ این مسائل به خوبی شناخته شده است. جالب تر توضیح او این است که چرا مایکروسافت گام غیرمعمول درخواست مداخله دولت را برداشته است:

همانطور که کشور با اختلاف بر سر جدایی کودکان مهاجران از خانواده هایشان در مرز جنوبی، ارتباطات خود را در مورد یک وبلاگ بازاریابی مایکروسافت در ماه ژانویه منتشر شد و به سرعت رسانه های اجتماعی را منفجر کرد و موجب شد بحث های شدید شود. این وبلاگ در مورد قرارداد با مهاجرت و تسلیحاتی ایالات متحده، یا ICE صحبت کرده است و گفته است که مایکروسافت آستانه امنیتی بالا را طی کرده است. این جمله شامل پتانسیل ICE برای استفاده از تشخیص چهره بود.

اسمیت می نویسد که قرارداد ذکر شده در این پست بازاریابی وبلاگ نه شامل فن آوری تشخیص چهره است. اما او و همکارانش کاملا آگاه هستند که نگرانی عمومی در مورد استفاده و سوءاستفاده از فناوری تشخیص چهره، از بین رفته و قطعا تصمیم گرفته است تا آن را به زودی و به زودی به آن پاسخ دهد. اسمیت یادآور می شود که برخی از آنها خواستار شرکت برای تنظیم خود هستند، اما او اذعان می کند: "به عنوان یک اصل کلی، به نظر می رسد منطقی تر از درخواست یک دولت منتخب برای تنظیم شرکت ها است تا از شرکت های انتخاب نشده برای تنظیم چنین دولتی درخواست کنند." دفاع از مقررات دولتی به طور کلی:

بازارهای زیادی وجود دارند که قوانین متفکرانه به یک پویایی سالم برای مصرف کنندگان و تولید کنندگان به طور یکسان کمک می کنند. صنعت خودرو چندین دهه را در قرن بیست و یکم در برابر خواست های مقررات نگهداری کرده است، اما امروزه از نقش اساسی در تنظیم مقررات در تضمین کمربندها و کیسه های هوا و راندمان بیشتر سوخت استفاده می شود. همین امر در مورد ایمنی هوا، غذاها و محصولات دارویی صادق است. همیشه در مورد جزئیات بحث خواهیم کرد، و جزئیات بسیار مهم است. اما جهان با مقررات شدید محصولاتی که مفید، اما به طور بالقوه آشفته هستند، بهتر از جهانی است که از استانداردهای قانونی برخوردار نیستند.

اسمیت اشاره می کند که اخیرا مایکروسافت حامی صدای مقررات حفاظت کلی اطلاعات در اتحادیه اروپا بوده است. فراخوان شرکت برای تنظیمات دولتی فناوری های تشخیص چهره می تواند به عنوان یک رشد از علاقه اولیه خود به حفاظت از حریم خصوصی باشد. این یک رویکرد است که دارای مزایای مشهود شناختی برای مایکروسافت است، که قبلا توسط بسیاری از کاربران به عنوان دستیار و اقدام به نظر می رسید، همانطور که بالاتر از قانون است. [1965،9002] این یک حرکت پوچ برای دلیل دیگری است. طبق گزارش Privacy News Online، آمازون تحت فشار قرار گرفته است تا خدمات تشخیص چهره مبتنی بر ابر خود را گسترش دهد. مایکروسافت کمتر از قوانین ترس دارد؛ چرا که در فروش سیستم های مشابه تا حدودی عقب مانده است. با موقعیت خود به عنوان تامین کننده "اخلاقی"، می تواند امیدوار باشد که کسب و کار را از دولت ها و شرکت هایی که نگرانی های مربوط به حریم خصوصی دارند نادیده بگیرد. مقررات جدید احتمالا بیشتر مانع رقبای مایکروسافت در این زمینه مانند آمازون و گوگل خواهد شد که در کنار قرار دادن تشخیص چهره در قلب خدمات آینده می باشد.

علاوه بر درخواست خود برای کمیسیون تخصصی دو جانبه برای ارزیابی بهترین روش برای تنظیم استفاده از تکنولوژی تشخیص چهره، پست اسمیت نیز برخی از سوالات خاصی را که باید پاسخ داده شود، ارائه می دهد. برای مثال، نوع نظارت برای استفاده پلیس و دولت از فناوری تشخیص چهره چیست؟ آیا استفاده از تکنولوژی تشخیص چهره به عنوان یک شواهد از گناه فرد یا بی گناهی جرم ممکن است مجاز باشد؟ آیا استفاده از تشخیص چهره توسط مقامات دولتی و یا دیگران نیاز به حداقل سطح عملکرد برای دقت؟ در مورد حقوق افراد می دانید که شناخت چهره در فضاهای عمومی یا تجاری مورد استفاده قرار می گیرد؟ آیا برای افرادی که بر این باورند که با سیستم تشخیص چهره اشتباه شناسایی شده اند، چه مکانیسم های بازپرداخت باید وجود داشته باشد؟

اسمیت همچنین افکار خود را در مورد مسئولیت های ویژه بخش فناوری ارائه می دهد. او می گوید کارهای بیشتری باید انجام شود تا خطر از بین بردن تکنولوژی تشخیص چهره کاهش یابد. اسمیت قول می دهد که مایکروسافت یک مجموعه شفاف از اصول برای تکنولوژی تشخیص چهره ایجاد و منتشر کند. او می گوید که مایکروسافت برای ایجاد این اصول، بر تخصص و ورود کارکنان خود تمرکز خواهد کرد، بلکه به دنبال دیدگاه های ذینفعان خارجی از جمله مشتریان، دانشگاهیان و گروه های حقوق بشر و حفظ حریم خصوصی است. اسمیت وعده داده است که مایکروسافت در استفاده از فناوری تشخیص چهره پیشرفته "آهسته تر" حرکت کند. این ممکن است یک وعده عجیب و غریب به نظر برسد اما او توضیح می دهد:

بسیاری از فناوری های اطلاعاتی، بر خلاف چیزی شبیه به محصولات دارویی، به سرعت و به طور گسترده ای برای سرعت بخشیدن به نوآوری و استفاده از توزیع می شوند. "حرکت سریع و شکستن چیزها" در اوائل این دهه چیزی از ماندرا در دره سیلیکون بود. اما اگر ما با تشخیص چهره خیلی سریع حرکت کنیم ممکن است ما متوجه شویم که حقوق اساسی افراد شکسته شده است.

"حرکت سریع و شکستن چیزها" شعار فیس بوک تا سال 2014 بود و این وعده حرکت به آرامی، مایکروسافت به این نتیجه رسیده که در حال حرکت نیز سریع است و عواقب جدی برای مردم دارد.

با وجود تلاش های شدید برای محافظت از حریم خصوصی به نفع خود، درخواست مایکروسافت برای تنظیمات دولتی سیستم های تشخیص چهره توسعه مهم است. این فشار بر سایر بازیکنان عمده در این بخش تأثیر می گذارد تا اهمیت حفاظت از حریم خصوصی را در عجله خود برای بهره برداری از تکنولوژی تأیید کند. این تلاش ها در سراسر جهان نیز تقویت می شود تا چارچوب قانونی معقول را برای به دست آوردن مزایای سیستم های تشخیص چهره در حین اجتناب از بدترین مشکلات آنها تقویت کند.

تصویر برجسته توسط استیو جورواستون

درباره گلیان موودی

گلیان مودی یک روزنامه نگار آزاد، که در مورد حفظ حریم خصوصی، نظارت، حقوق دیجیتال، منبع باز، کپی رایت، اختراعات و مسائل سیاست عمومی مربوط به فن آوری دیجیتال می نویسد و صحبت می کند. او شروع به پوشش استفاده از اینترنت در سال 1994 کرد و اولین ویژگی اصلی در مورد لینوکس را که در اوت 1997 در Wired ظاهر شد، نوشت. کتاب او "Code Rebel Code" اولین و تنها تاریخ دقیق افزایش منبع باز است VPN Service "title =" VPN Service "/> در حال حاضر فعالیت های بعدی خود را،" Code of Life of Life "، به بررسی بیوانفورماتیک – تقاطع محاسبات با ژنومیک می پردازد.
   

الگوهای تیره: شرکتهای فناوری چگونه از طراحی رابط کاربری برای تضعیف حریم خصوصی خود استفاده می کنند


مقرره حفاظت از اطلاعات کلی اتحادیه اروپا (GDPR) در ماه مه مجددا به اجرا در آمد. یکی از دلایلی که بسیاری از مردم در مورد GDPR می دانند این است که آنها با ایمیل ها بمباران شده اند و از آنها می خواهند که سیاست حفظ حریم خصوصی به روز شده را به عنوان یک نتیجه پذیرفته باشند. یکی دیگر از این موارد این است که برخی از شرکت ها برای اولین بار پس از اعمال GDPR، مردم را مجبور به پذیرش شرایط و ضوابط جدید کرده اند. گاهی اوقات آنها با توجه به نوع استفاده از داده های شخصی خود برای سفارشی سازی، تبلیغات هدفمند، تحقیقات بازار و غیره می توانند از آن استفاده کنند. به نظر می رسد که این امر به نظر می رسد که الزامات GDPR را که کاربران باید مجوز صریح را برای روش هایی که شرکت ها از داده های شخصی خود استفاده می کنند.

با این وجود، حتی اگر کاربران به طور نظری می توانند تنظیمات حریم خصوصی خود را تغییر داده و بهینه سازی محافظت از اطلاعات شخصی خود را انجام دهند، ممکن است این کار را نکنند. بخشی از آن، به این دلیل است که به تلاش نیاز دارد و مردم اغلب پیش فرض ها را قبول می کنند. علاوه بر این، به نظر می رسد مسائل دیگر به دلیل استفاده از "الگوهای تاریک" در صفحه نمایش ظاهرا کمک به کاربر کنترل تنظیمات حریم خصوصی خود را وجود دارد. این اصطلاح در سال 2011 توسط هری بریگول، متخصص طراحی رابط کاربری، طراحی شد. تعریف او این است:

یک الگوی تاریک یک رابط کاربری است که به دقت ساخته شده است تا کاربران را به کاری که ممکن است در غیر این صورت انجام دهند، مانند خرید بیمه با خرید آنها یا ثبت نام برای صورتحسابهای تکراری، فریب دهند. به طور معمول زمانی که شما به "طراحی بد" فکر می کنید، شما از خالق به عنوان غفلت یا تنبل فکر می کنید – اما بدون هدف بد. از سوی دیگر، الگوهای تیره، اشتباه نیستند. آنها با درک صحیح روانشناسی انسانی با دقت کار می کنند و منافع کاربر را در ذهن ندارند.

Brignull یک سایت تحت عنوان Pattern Dark را اجرا می کند که حاوی "سالن شرم" با نمونه های واقعی زندگی تاریک است الگوهای و لیستی از انواع رایج. یکی از این ها "Privacy Zuckering" است، جایی که "شما به صورت عمومی فاش می کنید اطلاعات بیشتری در مورد خودتان به اشتراک می گذارید تا اینکه واقعا قصد داشتید. به نام Mark Zuckerberg مدیر عامل فیس بوک نامزد شده است. "گزارش آزاد،" فریب شده توسط طراحی "، که توسط شورای مصرف کننده نروژ تأمین مالی شده است، نشان می دهد که سایت های برتر اخیرا در" Privacy Zuckering "مشغول به فعالیت هستند تا تضمین امنیت GDPR را تضعیف کنند. این گزارش به بررسی چگونگی انجام فیس بوک، گوگل و مایکروسافت روند به روز رسانی تنظیمات حریم خصوصی خود را برای رعایت الزامات سخت تر GDPR می پردازد. به طور خاص، محققان "بررسی تنظیمات داده خود را" از فیس بوک، "یادآوری حفظ حریم خصوصی" ظاهر از گوگل، و یک صفحه تنظیمات ویندوز 10 به عنوان بخشی از به روز رسانی سیستم را بررسی کرد. هر دو فیس بوک و گوگل به طور پیش فرض از حریم خصوصی محافظت می کنند:

پنجره فیس بوک GDPR به کاربران نیاز دارد تا به «مدیریت تنظیمات داده ها» بروید تا تبلیغات را بر اساس اطلاعات شخص ثالث غیرفعال کنید. اگر کاربر به سادگی با کلیک بر روی "پذیرش و ادامه"، این تنظیم به طور خودکار روشن می شود. به طور پیش فرض این حریم خصوصی نیست.

به همین ترتیب، تنظیمات Google برای شخصی سازی تبلیغات و برای به اشتراک گذاری فعالیت وب و برنامه، کاربر را به طور فعال به داشبورد حریم خصوصی می برد تا آنها را غیرفعال کند. از سوی دیگر، تنظیمات ذخیره سازی سابقه موقعیت مکانی، اطلاعات دستگاه و فعالیت صدای و شنیداری خاموش می شود تا کاربر به طور فعال آنها را فعال کند.

این گزارش بر این عقیده است که انتخاب رنگ به ظاهر بی خطر، در واقع یک الگوی تاریک که تلاش می کند تا کاربران را در جهت خاص هدایت کند:

در پنجره فشرده GDPR، رابط با یک دکمه آبی روشن طراحی شده است که کاربران را «موافق و ادامه» می دهد. با در نظر گرفتن مسیر آسان با کلیک کردن بر روی این دکمه، کاربر به یک صفحه جدید در مورد تشخیص چهره، با دکمه معادل مشابه برای پذیرش و ادامه ادامه می دهد.

از سوی دیگر، کاربران که می خواستند فیس بوک را جمع آوری کند و از آنها استفاده کند ابتدا باید یک جعبه خاکستری با برچسب "مدیریت تنظیمات داده" کلیک کنید، جایی که از طریق یک سری کلیک های طولانی به منظور خاموش کردن "تبلیغات براساس داده های شرکای" و استفاده از تکنولوژی های تشخیص چهره هدایت می شد. به عبارت دیگر، این مسیر به مراتب طولانی تر بود.

یک بار دیگر، گوگل همانقدر بد بود. این دکمه آبی برای پذیرش و ادامه استفاده از سرویس ارائه شد، در حالی که یافتن گزینه های جایگزین مورد نیاز از طریق چندین زیر منو را کلیک کنید و حتی پنجره ی بازشو را ترک کرده و به داشبورد حریم خصوصی Google حرکت کنید. اگر چه مایکروسافت یک رویکرد بهتر را به طور کلی پذیرفته است، اما تلاش های ظریف برای هدایت کاربران در جهت هایی که حفاظت از حریم خصوصی را کاهش داده است. برای مثال، در بخش کنترل اینکه آیا اجازه دهید برنامه ها از یک آگهی تبلیغاتی – یک شناسه وسیع برای ردیابی استفاده کنند – آیکون انتخاب "بله" فلش است که هدف آن قرار می گیرد، در حالی که انتخاب "بدون" دارای هدف خالی بود . علاوه بر این، انتخاب انتخاب در بالا قرار گرفت.

یکی دیگر از راه های مهم که شرکت ها در پی تاثیر بر انتخاب های حفظ حریم خصوصی ما هستند، از طریق فریم سازی است. فیس بوک گزینه «روشن کردن چهره» را به شما معرفی می کند – یک عمل بسیار مشکوک تا آنجا که حریم خصوصی است – به عنوان راهی برای "محافظت از شما از غریبه ها با استفاده از عکس شما". به همین ترتیب، گوگل کاربران را هشدار داد که اگر آنها تصمیم به خاموش کردن شخصی سازی آگهی ها می کردند، "شما همچنان آگهی را مشاهده خواهید کرد، اما برای شما کمتر مفید خواهد بود". این نتوانسته است مزایای استفاده از این مسیر را توضیح دهد، بنابراین به نظر می رسد هیچ کدام وجود ندارد. یکی دیگر از نوع قدرتمند الگوی تاریک که توسط همه سه شرکت استفاده می شود شامل موارد جدیدی از گزارش اعمال شده و زمان بندی می شود:

هنگامی که کاربر سعی در دسترسی به حساب کاربری خود دارد، یک پنجره باز می شود که موافقت یا ترک آن را انتخاب نمی کند قدرتمند به راه حل سریع و آسان بروید. به عنوان مثال، اگر پنجره ظاهر شد فقط زمانی که کاربر سعی در خواندن یک پیام داشته باشد، یا دسترسی به اطلاعات مربوط به یک رویداد که در آن حضور دارند، فوری بودن وظیفه می تواند احتمال آن را کاهش دهد که کاربران زمان خواندن را از طریق آنچه که در واقع موافقت می کنند.

این تکنیک مخصوصا در دستگاه های تلفن همراه موثر است. با استفاده از صفحه نمایش های کوچکتر، از طریق گزینه های مختلف و یا خواندن توافقنامه های طولانی مدت، پیچیده تر می شود. در این شرایط، بسیاری از مردم به سادگی با پیش فرض موافقند. الگوهای تیره ناشی از اضطراب که باعث می شود به نظر می رسد کاربران از دست دادن داده ها و یا حتی دسترسی به حساب خود، اگر آنها به سرعت شرایط و ضوابط را قبول ندارند، به طور موثر ویژگی اصلی GDPR را تضعیف می کند:

'از موضوع داده شده به معنی هر نشانه آزادانه داده شده، مشخص، آگاهانه و غیرقابل شناسایی از خواسته های موضوع داده شده است که توسط او یا توسط یک بیانیه یا با یک اقدام مثبت مشخص نشان دهنده توافق برای پردازش اطلاعات شخصی مربوط به او و یا او ؛

گزارش جدید "فریب توسط طراحی" جزئیات جزئیات خلأ بین آنچه GDPR در تلاش برای دستیابی به افراد به دست آوردن کنترل معنی دار بر اطلاعات شخصی خود و واقعیت از آنچه که شرکت های بزرگ آنلاین ارائه می دهد. فیس بوک و گوگل ممکن است خدمات لوکال را به الزام GDPR اعطا کند که کاربران باید رضایت خاص، آگاهانه و غیرمستقیم به عملیاتی که بر حریم خصوصی آنها تاثیر می گذارد را ارائه دهند. اما یک بازبینی دقیق از طراحی و منطق پنجره های بازشو GDPR و صفحات وب نشان می دهد که این کار کمی بیش از پنجره پوشیدن است.

این رویکرد ممکن است عواقب جدی برای شرکت ها داشته باشد. به گزارش خبرگزاری حریم شخصی آنلاین، ماه گذشته Max Schrems، متخصص حفاظت از داده ها، چهار بار در برابر گوگل، فیس بوک، WhatsApp و Instagram به "رضایت اجباری" شکایت کرده است – این واقعیت است که کاربران در مورد موافقت با شرایط و ضوابط جدید هر شرکتی که از الگوهای تیره نوع توصیف شده در گزارش جدید استفاده می کند، ممکن است شکایات رسمی مشابهی از رویکرد خود برای اجرای حقوق جدید GDPR داشته باشد. ممکن است نسبتا آسان باشد که کاربران را مجبور به رها کردن حقوق حریم خصوصی خود کند، اما این قانونی نیست که دادگاههای اتحادیه اروپا مجبور به اعمال جریمه بزرگی برای انجام این کار نکنند.

تصویر ویژه توسط الکس بورلند

About Glyn Moody

گلیان مودی یک روزنامه نگار آزاد است که در مورد حفظ حریم خصوصی، نظارت، حقوق دیجیتال، منبع باز، کپی رایت، اختراعات و مسائل مربوط به سیاست کلی با فن آوری دیجیتال می نویسد و صحبت می کند. او شروع به پوشش استفاده از اینترنت در سال 1994 کرد و اولین ویژگی اصلی در مورد لینوکس را که در اوت 1997 در Wired ظاهر شد، نوشت. کتاب او "Code Rebel Code" اولین و تنها تاریخ دقیق افزایش منبع باز است VPN Service "title =" VPN Service "/> در حال حاضر فعالیت های بعدی خود را،" Code of Life of Life "، به بررسی بیوانفورماتیک – تقاطع محاسبات با ژنومیک می پردازد


   </div>
<p><a href=