برداشت آزاد از Foreign Policy؛ فقط ایدهای برای تأمل بیشتر
▬ «کلاندادهها»، مسائل جدیدی را فراهم آوردهاند. جستن اطلاعات در «کلاندادهها» دیگر از طریق جستجوگرها، میسر نیست، و به فن معدنکاوی اطلاعات به درد بخور بدل شده است که کم و بیش ماهیت انحصاری دارد و اشکال تازهای از نابرابری را به وجود میآورد که در جامعهشناسی و مطالعات شهری جدید، فصلی برای خود گشوده است.
▬ چون همه داده، به طور مساوی ایجاد یا، حتی، جمعآوری نمیشوند، در مجموعه «کلاندادهها»، «مشکلات سیگنالی» وجود دارد؛ یعنی، حوزههای تاریکی که برخی شهروندان و جوامع در آنها نادیده گرفته شدهاند.
▬ بنا بر این، رویکردهای مربوط به «کلاندادهها» برای برنامهریزی شهری کاملاً وابسته به این است که مقامات شهری هم دادهها را بشناسند، و هم محدودیت آن را.
▬ به عنوان مثال، «اپلیکیشن استریت بامپ» شهر بوستون، که از طریق گوشیهای هوشمند رانندگانی که در دستانداز میافتند، دادههایی را جمعآوری میکند، روش مناسبی برای گردآوری اطلاعات با هزینه کم است و اپلیکیشنهای بیشتری مشابه این اپلیکیشن در حال ظهورند؛ اما، اگر مقامات شهری بخواهند تنها بر دادههایی متمرکز شوند که از گوشیهای هوشمند شهروندان به دست میآید، اطلاعات به دست آمده محدود به یک نمونه انتخابی خواهد بود. در این مثال، یعنی، طبیعتاً از افراد مسن و افرادی که تمکن مالی کمتری دارند و کمتر از گوشیهای هوشمند استفاده میکنند، دادههای کمتری به دست خواهد آمد.
▬ مقامات بوستون، تلاشی جمعی برای رسیدگی به این اختلافات دادهای احتمالی انجام دادهاند تا جلوی تخصیص اشتباه منابع را که عامل افزایش نابرابریهای اجتماعی است، بگیرند. به عنوان مثال، میتوان سرویس اینترنتی گوگل فلو ترندز (Google Flue Trends) را در نظر گرفت که ارزیابیهای بروزی را از فعالیتهای مربوط به آنفلوآنزا برای بیش از ۲۵ کشور فراهم میکند. محاسبات اشتباه این سرویس در سال ۲۰۱۲ اثر اتکا بر دادههای اشتباه بر خدمات عمومی و سیاست عمومی را به تصویر میکشد. در سال ۲۰۱۲ این سرویس نرخ سالانه ابتلا به آنفلوآنزا را به میزان قابل توجهی زیاد برآورد کرده بود.
▬ این موضوع، در مورد وب سایتهای «دولت شفاف» در امریکا که هدف آن شفافیت اقدامات دولت است و دادههایی را در مورد بخشهای دولتی به صورت آنلاین، منتشر میکنند، صدق میکند. وجود دادههای بیشتر، لزوماً عملکرد دولت مانند شفافیت یا مسؤولیت پذیری را توسعه نمیدهد، مگر اینکه صرف نظر از کمک به توان دولت برای تفسیر دادهها، سازوکارهایی برای ایجاد ارتباط بین عامه مردم و نهادها وجود داشته باشد.
▬ انجام هیچ یک از کارهایی که ذکر شد، آسان نیست. در حقیقت، هنوز تعداد متخصصین ماهر در امور دادهها زیاد نیست. دانشگاهها در حال حاضر در تلاشاند تا رشتههایی را در این زمینه تعریف کنند، برنامه درسی بنویسند و تقاضا ایجاد کنند.
▬ گروههای حقوق بشر نیز به دنبال استفاده از «کلاندادهها» هستند تا درگیریها و بحرانها را بهتر بشناسند؛ اما، در اینجا هم سؤالاتی در مورد کیفیت دادهها و تحلیل آنها وجود دارد. بنیاد مکآرتور اخیراً جایزهای ۱۷۵ هزار دلاری به «مرکز حقوق بشر دانشگاه کارنیج ملون» اهدا کرده تا این مرکز بررسی کند تجزیه و تحلیل «کلاندادهها» چگونه یافتههای مربوط به حقوق بشر را تغییر میدهند. جی آرونسون، رییس این مرکز، اشاره میکند که در مورد استفاده از دادهها و مسؤولیتهای دانشگاهیان و سازمانهای حقوق بشر، پرسشهای مهمی در حال ظهور است. در بسیاری از موارد مشخص نیست که آیا امنیت و سلامت افرادی که این وقایع را گزارش میکنند، تحت تأثیر این تکنولوژیهای جدید افزایش مییابد یا مورد تهدید قرار میگیرد؟
░▒▓ «کلاندادهها» نباید بین گروههای اجتماعی تبعیض قائل شوند
▬ یکی دیگر از ویژگیهای هدف منتسب به «کلاندادهها» این است که علیه گروههای اقلیت تبعیض کمتری وجود دارد، چون دادههای خام تا حدی در برابر تمایلات اجتماعی مصون هستند و باعث میشوند تحلیلها در حجم گستردهای صورت بگیرند و بنا بر این، از تبعیضهای گروهی جلوگیری میکنند.
▬ با این حال، «کلاندادهها» به طور دقیق به هدف «تفکیک افراد در گروههای مختلف» به کار گرفته میشوند، چون میتوانند نحوه رفتار متفاوت گروهها را توضیح دهند. به عنوان مثال، تحقیقی که اخیراً انجام شده، اشاره میکند به اینکه دانشمندان چگونه اجازه میدهند فرضیاتشان در مورد مسائل نژادی، تحقیق ژئونومیک «کلاندادهها» را شکل دهد.
▬ آلیستایر کرول مینویسد، این احتمال که «کلاندادهها» برای اعمال تبعیض قیمت در کالاها مورد استفاده قرار بگیرند، نگرانیهایی را در مورد حقوق مدنی برمیانگیزد؛ موضوعی که از قدیم با عنوان «کشیدن خط قرمز» شناخته میشد.
▬ «کلاندادهها» تحت عنوان «شخصی سازی» میتوانند برای منزوی کردن گروههای اجتماعی خاص و داشتن رفتار متفاوت با آنها مورد استفاده قرار بگیرند. مثلاً، شرکتها میتوانند آگهی اینترنتی برای تبلیغ یک کارت اعتباری را فقط به افرادی نشان دهند که درآمد خانوار بیشتری دارند یا سوابق اعتباری آنها در بانکها بهتر است و بقیه افراد از اینکه چنین تبلیغی موجود است، کاملاً ناآگاه باشند. شرکت گوگل، حتی، یک حق ثبت قیمتی دارد. به این صورت که اگر سابقه خرید قبلی شما نشان دهد که برای خرید کفش تمایل دارید پول بیشتری بپردازید، قیمت اولیه برای خرید آنلاین بعدی شما، بیشتر خواهد بود.
▬ این روزها کارفرمایان تلاش میکنند از «کلاندادهها» برای مدیریت منابع انسانی استفاده کنند و بهرهوری کارمندان خود را افزایش دهند. کارمندان هم از اینکه دادهها در مورد آنها چگونه جمعآوری یا استفاده میشود، هیچ اطلاعی ندارند.
▬ تبعیض، میتواند دیگر ابعاد جمعیتشناختی را دربر بگیرد. به عنوان مثال، روزنامه نیویورک تایمز در گزارشی عنوان کرده بود که شرکت تارگت، خرده فروشی بزرگ امریکایی، چند سال پیش گردآوری پروفایلهای تحلیلی در مورد مشتریانش را آغاز کرده بود. این شرکت اکنون، دادههای زیادی در مورد روند خرید مشتریان در دست دارد و مثلاً، بر اساس سوابق خرید یک زن، حتی، میتواند با اطمینان ۸۷ درصدی پیش بینی کند که چه زمانی او بچه دار میشود. در حالی که این موضوع میتواند بازاریابی تارگت را توسعه دهد، میتوان تصور کرد از چنین تصمیماتی به گونهای استفاده شود که در برابری اجتماعی تبعیض ایجاد کند.
▬ همچنین، اخیراً تحقیق دانشگاه کمبریج در مورد «کلاندادهها» که ۵۸ هزار مورد «لایک» در فیس بوک را مورد بررسی قرار داده، برای پیش بینی اطلاعات شخصی بسیار حساس در مورد کاربران، مانند گرایشهای جنسی، قومیت، دیدگاههای مذهبی و سیاسی، ویژگیهای شخصیتی، هوش، خوشحالی، استفاده از مواد مخدر، وضعیت تأهل، سن و جنسیت، مورد استفاده قرار گرفت. تام فورمسکی، روزنامه نگار، در مورد این مطلب مینویسد: دسترسی آسان کارفرمایان، صاحبخانهها، آژانس دولتی، مؤسسات آموزشی و سازمانهای خصوصی به این اطلاعات حساس، میتواند به شیوهای مورد استفاده قرار بگیرد که بین افراد تبعیض ایجاد کند و هیچ راهی برای مبارزه با آن وجود ندارد.
▬ در نهایت، اثر «کلاندادهها» در زمینه اجرای قانون را در نظر بگیرید. در بسیاری از ایالتهای امریکا، پلیس به مدلهای «کنترل پیش گویانه» با استفاده از «کلاندادهها» روی آورده، به امید این که بتواند بسیاری از پروندههای پیچیده را حل کند و، حتی، از وقوع جرائمی در آینده جلوگیری کند، اما، از طرف دیگر، یکی از فرماندهان پلیس معتقد است: «اگر چه الگوریتمهای کنترل پیشگویانه، دستههایی مانند نژاد یا جنسیت را در نظر نمیگیرد، اما، نتیجه عملی استفاده از چنین سیستمهایی بدون حساسیت نسبت به اثر تفاضلی آن میتواند دستورالعملی برای بدتر شدن روابط بین پلیس و جامعه، ایجاد تصور بیعدالتی، اتهام تبعیض نژادی و تهدیدی برای مشروعیت پلیس باشد».
برداشت آزاد از دنیای اقتصاد
هو العلیم