آیا میدانستید با نصب هر برنامهای روی موبایل خودمان یا فرزندمان قراردادی را امضا میکنیم که به شرکت سازنده اجازه میدهد از اطلاعاتی که از طریق دادههای ما بدست میآورد استفاده کند؟ آیا میدانستید از هر ۲۴ اپلیکیشن حوزهی سلامت٬ ۱۹ اپلیکیشن دادههایی را که جمعآوری کرده به شرکت ثالث میفروشد؟ و آیا میدانستید که این شرکتهای ثالث دادههای ما را در اختیار ۲۱۶ سازمان دیگر میگذارند که تعداد اندکی از آنها فقط مربوط به حوزهی سلامت هستند؟ شیدا علیپور، نویسنده سایت کودک و نوجوان آیقصه در این گزارش نگاه جامعی به بحث حریم خصوصی و حکمرانی دادهها در جهان و این تدتاک داشته است.

از تصمیم به بارداری تا لحظهی مرگ
شاید برایتان سوال باشد که اطلاعات ما چطور ممکن است بدون خواست ما در دست سازمانهای دیگر قرار بگیرد؟ جواب اینجاست که با رشد فناوری و استفاده از اینترنت و فضای مجازی ناخواسته اطلاعات مورد نیاز این سازمانها را در اختیارشان قرار میدهیم. وقتی تصمیم به بارداری داریم و جملهی «چگونه باردار شویم» را در گوگل سرچ میکنیم٬ وقتی انقباضات بارداری داریم و در مورد آن در گوگل سرچ میکنیم٬ وقتی نوزادمان شیر نمیخورد یا بلد نیستیم باد گلویش را بگیریم در گوگل سرچ میکنیم و این موضوع همچنان ادامه دارد. بدین طریق سازمانهای غول فناوری به راحتی از تصمیم به بارداری ما تا اتفاقاتی که در بدن ما یا فرزندمان میافتد آگاه میشوند.
ما که چیزی برای پنهان کردن نداریم
پاسخ عدهای این است که ما چیزی برای پنهان کردن نداریم یا شخصیت مهمی نیستیم که اطلاعاتمان به درد کسی بخورد و برایمان مهم نیست که از دادههای ما و فرزندانمان استفاده میکنند٬ اما موضوع پنهان کردن چیزی یا شخصیت مهمی بودن نیست٬ موضوع فقط این نیست که ما را از طریق این دادهها ردیابی میکنند بلکه موضوع مهم این است که بااستفاده از این دادهها ما را طبقهبندی میکنند. این سازمانها با استفاده از هوش مصنوعی و تحلیلگرهای پیشبینی کننده٬ کودکان را بر اساس نژاد٬ مذهب٬ ثروت و حتی رفتارهای ناهنجار طبقهبندی میکنند وبا اسم کامل و آدرس و اطلاعات تماس در اختیار مصرف کنندگان این دادهها قرار میدهند.
دربارهی سخنران این تدتاک
ورونیکا باراسی، سخنران این تدتاک انسانشناس و مادر دو دختر است. او استاد مطالعات رسانه و ارتباطات در دانشکدهی علوم انسانی و اجتماعی در دانشگاه سنت گالن و همچنین صاحب کرسی رسانه و فرهنگ در موسسه مدیریت رسانه و ارتباطات است. دولت ایرلند در سال ۲۰۱۹ از او دعوت کرد تا در اجلاس دیجیتال دربارهی اخلاق هوش مصنوعی سخنرانی کند. باراسی معتقد است هوش مصنوعی و تحلیلگرهای پیشبینی کننده میتوانند خیلی هم مفید باشند مثلا در زمینهی بیماریها یا تغییرات آب و هوایی اما از آنجا که این فناوریها نمیتوانند بیطرفانه و بدون جهتگیری عمل کنند در نتیجه قابل اعتماد در حوزهی علوم انسانی نیستند.
طبقهبندی آدمها
فناوری هوش مصنوعی و تحلیلگران دادهها٬ انسانها را بر اساس دادههای غیرواقعبینانهای طبقهبندی میکنند که نمیتوانیم به آنها اعتماد کنیم و تصمیمات را بر مبنای آن دادهها بگیریم زیرا انسانها یک جوری فکر میکنند و یک جور دیگری عمل میکنند. نکتهی مهمتر اینکه این فناوریها ساختهی دست بشر هستند و الگوریتمهای آنها همیشه با سوگیری همراه است. یک نمونهی آن فناوری هوش مصنوعی در پلیس نظارت و پیشگیری است که در الگوریتم آنها از دادههای «چرک» استفاده میکنند٬ مثلا نژاد سیاهپوست را جزو دستهی پرخطر قرار میدهند و این یعنی نژادپرستی و طبقهبندی آدمها بر اساس نژادشان. طبقهبندی آدمها با این دادههای جهتدار موجب تبعیض در جامعه میشود و باعث میشود آدمها نتوانند از شانس طبیعی خودشان در زندگی بهره مند شوند.
آیندهای بر اساس دادههای امروز
آنجایی این فناوری مشکلساز میشود که شرکتها و سازمانها با استفاده از دادههایی که در مورد آدمها بدست میآورند٬ آنها را طبقه بندی میکنند و در مورد آیندهی آنها تصمیمگیری میکنند. مثلا کودکان را از دو سالگی ردیابی میکنند و از حالا تعیین میکنند که این کودک در آینده قرار است چه مسیری را در زندگی طی کند و مستحق چه امتیازاتی هست یا نیست و بر اساس آن٬ مسیر زندگی او را هدایت میکنند. همین موجب میشود که کودکان از شانس برابری برخوردار نباشند. با استفادهی هوشمندانهتر از فضای مجازی و حساسیت روی حریم خصوصی آیندهای عادلانه برای فرزندانمان رقم بزنیم.
تدتاک «حریم خصوصی» را با زیرنویس فارسی ببنید:
اگر به تماشای تدتاکها علاقمند هستید. «اهمیت درخواستِ کمک را از کودکان بیاموزیم» را تماشا کنید.
سلام .ممنون از مجله خوبتون بابت موضوعات مختلف جذاب و آموختنی درباره کودکان و نقش والدین و دیگران برای بهتر شدن شرایط تحصیلی و یا شخصیت خود کودک