برای تمام نگرانی های نظری در مورد محدودیت های سیستم های تشخیص چهره، هیچ چیز مانند تجربه شخصی برای چکیدن نقطه خانه وجود دارد. اخیرا تأیید شد که ACLU یک آزمایش جالبی را با استفاده از سیستم شناسایی ابر مبتنی بر ابر آمازون انجام داد که Privacy News Online چند ماه پیش مورد بحث قرار گرفت:
با استفاده از Rekognition، ما یک پایگاه داده شخصی و ابزار جستجو با استفاده از 25،000 عکس دستگیر شده در دسترس عمومی ساختیم . سپس این پایگاه داده را در برابر عکس های عمومی هر عضو فعلی مجلس و سنا جستجو کردیم. ما از تنظیمات مطابقت پیش فرض استفاده کردیم که آمازون برای شناخت شناخته شده است.
نتیجه قابل توجه بود: نرم افزار آمازون با اشتباه 28 عضو کنگره مطابقت داشت و آنها را به عنوان افراد دیگر که برای جرم بازداشت شده بودند شناسایی کردند. به ویژه اضطراب، تعصب نژادی نشان داده شده توسط مسابقات بود: نزدیک به 40٪ از بازی های دروغین Recognition در آزمون ACLU از مردم رنگ بود، حتی اگر آنها تنها 20٪ از کنگره را تشکیل می دهند. همچنين قابل توجه بود که اين آزمايش هزينه صرف فقط 12.33 دلار است که نشان ميدهد که چطور سيستمهاي تشخيص چهره به چهره تبديل شده است. این بدان معنی است که مانع گسترش آنها به طور گسترده ای کم است.
جای تعجب نیست که برخی از سیاستمداران آمریکایی از این نتایج خوشحال نیستند. Cnet نسخه هایی از نامه های ارسال شده توسط برخی از آنها را به مدیر عامل آمازون، جف بیسوس دریافت کرد. یکی اشاره کرد که چرا تعصب نژادی آشکار سازی Rezognition چنین نگرانی – چیزی است که کانکور سیاه کانادایی در ماه مه، زمانی که جزئیات سیستم شناخت شناخته شد در ابتدا کشف شد. همانطور که در نامه اخیر آمده است:
با توجه به نتایج این آزمون، ما در مورد تاثیر مخرب این ابزار – اگر بدون کالیبراسیون مناسب، سازگار و دقیق بدون چیدمان – در جوامع رنگی: مهاجران وجود داشته باشد؛ معترضان به صورت صلح آمیز مونتاژ و دیگران برای درخواست بازپرداخت شکایات از دولت دعوت می کنند؛ یا هر گروه دیگر محروم شده.
کالیبراسیون یک موضوع کلیدی برای سیستم های تشخیص چهره است. اگر داده های آموزشی غیررسمی و یا استفاده نادرست باشد، سیستم نتایج بی نظیر تولید می کند. بسیاری از افراد احتمالا مسابقات به دست آمده با تشخیص چهره به عنوان قابل اعتماد را مشاهده می کنند، به لطف یک نوع استدلال دایره ای که از آن زمان مطابقت دارد، باید درست باشد. این مورد نیست: همانطور که آزمایشی ACLU نشان می دهد، یک سیستم پنهان شده به درستی پیکربندی خواهد ملاقات هایی پیدا کرد که در آنها وجود ندارد. یکی دیگر از مسائل مطرح شده توسط آمازون پاسخ به این حادثه، نوشته شده توسط مت وود، که مسئول آموزش ماشین آلات در خدمات وب آمازون است. او اشاره کرد که یک متغیر مهم وجود دارد که کمک می کند تا تعیین کند که کدام یک از بازی ها مناسب است، چرا که از نظر مثبت کاذب تولید می شود – مسابقات آشکار که نادرست است. این به اصطلاح "آستانه اعتماد" است:
آستانه اطمینان 80٪ که توسط ACLU استفاده می شود بسیار کم برای اطمینان از شناسایی دقیق افراد است. ما انتظار داریم که در این سطح اعتماد به نفع مثبت کاذب باشد. ما توصیه می کنیم که 99٪ موارد مورد استفاده را داشته باشیم که مسابقات شباهت بسیار دقیق روی آنها بسیار مهم است (همانطور که در اسناد عمومی ما نشان داده شده است).
پست آمازون توضیح داد که این شرکت آزمایش خود را انجام داد، از کنگره ایالات متحده در میان مجموعه ای از بیش از 850،000 چهره معمولا در دانشگاه استفاده می شود. با وجود مجموعه داده های بسیار بزرگ، اعتماد به نفس صفر بود که سطح اطمینان به سطح 99٪ دقیق تر تنظیم می شد. همانطور که آمازون به درستی یادآوری می کند، این نشان دهنده اهمیت حیاتی انتخاب سطح اطمینان مناسب هنگام استفاده از سیستم های تشخیص چهره است – چیزی که به ندرت مورد بحث قرار می گیرد. با این حال، سخنگوی ACLU به Ars Technica اشاره کرد که این استدلال به وضوح توسط یک پست در سایت آمازون تشدید شده است که جزئیات آن را توضیح می دهد که چگونه نیروهای پلیس می توانند از Recognition برای شناسایی افراد مورد علاقه برای اجرای قانون استفاده کنند که سطح اطمینان 85٪ ، نه 99٪.
پاسخ آمازون به نتایج ACLU همچنین بیان کرد که در شرایط واقعی در زمینه ایمنی عمومی و اجرای قانون، شناخت آمازون "تقریبا به طور انحصاری برای کمک به محدود کردن زمینه و اجازه دادن به انسان به سرعت در نظر گرفتن و بررسی گزینه ها با استفاده از قضاوت خود" از اجازه دادن به سیستم برای تصمیم گیری کاملا مستقل. این ممکن است دید بیش از حد خوش بینانه باشد.
یکی از دلایل اصلی گسترش گسترده سیستم های تشخیص چهره کم هزینه این است که آنها بخشی معمول از نظارت پلیس خواهند شد، به عنوان مثال بخشی از سیستم جدید FirstNet که هفته گذشته مورد بحث قرار گرفت. احتمالا این فن آوری در موقعیت هایی قرار می گیرد که افسران نیاز به تصمیم گیری سریع دارند؛ ممکن است زمان زیادی برای بررسی و بررسی گزینه ها وجود نداشته باشد – آنها باید عمل کنند. تمایل طبیعی برای اعتماد به سیستم های تشخیص چهره بدون نگرانی در مورد مسائل فنی مانند سطح اطمینان است. تصور اینکه اشتباهات ساخته شده است، شاید با عواقب مرگبار باشد، آسان است. حتی آکسون، بزرگترین ارائه دهنده دوربین های بدن در ایالات متحده، فکر می کند که این نگرانی است.
Matt Wood از آمازون پست خود را با پشتیبانی از درخواست قبلی مایکروسافت برای مقررات دولت به پایان می رساند:
یادگیری ماشین ابزار بسیار ارزشمند برای کمک به سازمان های اجرای قانون و در حالی که نگران است که آن را به درستی اعمال می شود، ما نباید فر را دور بریزیم، زیرا دمای می تواند اشتباه تنظیم شود و پیتزا را بسوزاند. با این حال، ایده بسیار منطقی این است که دولت برای اندازه گیری و تعیین درجه حرارت (یا سطح اطمینان) که می خواهد آژانس های اجرای قانون برای کمک به کار ایمنی عمومی آنها را ارزیابی کند مشخص است.
پیش از این، پیشنهادات این چگونگی وجود دارد انجام شده از طریق تنظیم یک گزارش 2016 تحت عنوان «عضویت دائمی: تشخیص چهره غیرقانونی پلیس در آمریکا» از گروهی در مرکز حفظ حریم خصوصی و فناوری در قانون جورج تاون نه تنها این مشکل را تحلیل کرد، بلکه برخی از راه حل ها را ارائه داد. این شامل قانون تشخیص چهره مدل و سیاست استفاده از تشخیص چهره مدل پلیس است.
با این حال، وودرو هارتزوگ، استاد حقوق و علوم کامپیوتری در دانشکده حقوق دانشگاه و دانشگاه کالج کامپیوتر و اطلاعات علمی شمال شرقی، دیدگاه بدبینانهتری پیدا میکند. او معتقد است که یک چارچوب قانونی کافی نیست – او می گوید ما باید ممنوعیت کامل فن آوری را داشته باشیم:
از آنجا که فناوری تشخیص چهره وعده ترجمه می دهد که ما چه کسی هستیم و در همه جا به اطلاعات پیگیری می پردازیم که تقریبا بلافاصله ذخیره می شود ، به اشتراک گذاشته شده و تجزیه و تحلیل شده است، توسعه آینده آن تهدید می کند که ما دائما در معرض خطر قرار بگیریم. آینده شکوفایی انسان بستگی به فناوری تشخیص چهره دارد که قبل از اینکه سیستم در زندگی ما وارد شود، ممنوع است. در غیر این صورت، مردم نمی دانند که چه چیزی در اختیار عموم قرار می گیرد بدون اینکه به طور خودکار شناسایی، شناسایی شده و به طور بالقوه مورد سوء استفاده قرار گیرد. در چنین جهانی، منتقدان فناوری تشخیص چهره از بین می روند، خاموش می شوند و یا از بین می روند.
فراخوانی هارتزوگ جسور و معقول است اما آیا این واقع گرایی است؟ آیا نیروهای پلیس یا سازمان های اطلاعاتی احتمالا تمایل دارند که قابلیت های نظارتی را که به رسمیت شناختن چهره ارائه می دهند، رد کنند؟ حتی اگر استفاده از فناوری ممنوع است، زمانیکه در حال گسترش است، سخت است که بگوییم: هر دوربین مدار بسته، هر عکس، به طور بالقوه می تواند به یک سیستم تشخیص چهره تبدیل شود و هیچ کس نمی داند. به همان اندازه، فناوری و تخصص در حال حاضر از آنجا خارج شده است، و هیچ راهی برای بازگشت به آن وجود ندارد. این همواره توسط کسانی که می خواهند قدرت خود را مورد استفاده قرار می دهند و مورد آزار و اذیت قرار گیرند و کسانی که مایل به رد کردن یا صرفا نادیده گرفتن عواقب قانونی که ممکن است در بعضی حوزه های قضایی پیگیری شود، مورد استفاده قرار گیرد.
شاید بهترین مواردی که ما امیدوار باشیم، بدترین عوارض سیستم تشخیص چهره. واقعیت این است که مایکروسافت و آمازون در حال حاضر مایل به حرکت در این جهت هستند، به این معنی است که شرکت های تکنولوژی دیگر احتمالا همین کار را خواهند کرد. برخی از سیاستمداران آمریکایی به سختی متوجه شدند که چگونه سیستم های تشخیص چهره نقص می تواند باشد. شاید آنها شروع به قدردانی از عواقب جدی که ممکن است از این نوع مثبت کاذب حاصل شود. در نتیجه، اکنون به نظر می رسد یک لحظه مناسب برای شروع گفتگو گسترده تر در مورد تنظیم فناوری قبل از اینکه دیر شود، و وضعیت به همان اندازه بدتر از هارتزوگ ترس می شود.
تصویر ویژه توسط ACLU
درباره Glyn Moody [19659020] Glyn Moody یک روزنامه نگار آزاد است که در مورد حفظ حریم خصوصی، نظارت، حقوق دیجیتال، منبع باز، کپی رایت، اختراعات و مسائل مربوط به سیاست کلی با فن آوری دیجیتال می نویسد و صحبت می کند. او شروع به پوشش استفاده از اینترنت در سال 1994 کرد و اولین ویژگی اصلی در مورد لینوکس را که در اوت 1997 در Wired ظاهر شد، نوشت. کتاب او "Code Rebel Code" اولین و تنها تاریخ دقیق افزایش منبع باز است VPN Service "title =" VPN Service "/> در حالی که کار بعدی خود،" Code of Life of Life "، به بررسی بیوانفورماتیک ها – تقاطع محاسبات با ژنومیک می پردازد
