هوش مصنوعی یکی از ابداعات بشر برای بالا بردن سرعت پردازش دادهها و انجام کارهای تکراری و زمانبر است. با وجود اینکه هوش مصنوعی در انجام این وظایف بسیار عالی عمل کرده است، اما مواردی از مشکلات آن هم رخ میدهد. اخیرا برخی گزارش دادهاند که هوش مصنوعی گوگل تصاویر خصوصی کاربران را ریپورت کرده و آنها را ممنوع میکند. با ترنجی همراه باشید.
هوش مصنوعی گوگل ممکن است نکات مثبت زیادی در کارایی خود داشته باشد، اما نکات منفی آن نیز رویت شده است. این موضوع در شکایات منظم اخیر کاربرانی است که به دلیل انجام هیچ کاری گزارش شدهاند، منعکس میشود. یک پدر در سانفرانسیسکو به دلیل استفاده از تلفن اندرویدیاش برای گرفتن عکس از عفونت کشاله ران پسرش به منظور اطلاع پزشکان از وضعیت فرزندش، از استفاده کردن این ابزار محروم شده است. در نتیجه، هوش مصنوعی گوگل این عکسها را به عنوان مواد آزار جنسی کودکان (CSAM) علامت گذاری نموده.
وی فورا به این تصمیم اعتراض کرده، اما گوگل نه تنها با بی توجهی آن را رد کرده است، بلکه سایر ویدیوها و عکسهای او را نیز علامت گذاری کرده است. به همین دلیل این شخص از اداره پلیس سانفرانسیسکو تحقیقاتی را آغاز کرد. بحثهای طولانی و زیادی در مورد این موضوع در توییتر انجام شده است. در حالی که برخی ادعا میکنند که این تجاوز به حریم خصوصی است، برخی دیگر میگویند که ترجیح میدهند سختگیرانه با این موضوع برخورد کنند تا از محرومیت گوگل رها شوند. یک متخصص زنان از برخی تصاویری که برای کارش نیاز دارد ابراز نگرانی کرده است.
یک مورد ایجاد شده توسط یک مشاوره آنلاین پزشکی نیز توجه زیادی به خود جلب کرده است. بر اساس گزارشها، والدین نگران تورم کشاله ران و درد غیرقابل تحمل پسرشان بودند. قبل از دریافت مشاوره پزشکی ویدئویی روز بعد، همسر این فرد چندین عکس با وضوح بالا از عفونت کشاله ران پسرش گرفت. این تصاویر در نهایت بنا به پیشنهاد پرستار در سامانه بیمه درمانی آپلود شد. برای تسهیل تشخیص اولیه پزشک بر اساس عکسها، پدر بچه هنگام عکس گرفتن همسرش با انگشتش به ناراحتی پسرش اشاره کرد. با کمک عکسها، پزشک مشکل وی را تشخیص داد و آنتی بیوتیک برای وی تجویز کرد.
حالا که بیماری پسر برطرف شد، مشکلات جدیدی برای پدرش پیش آمد. ظرف دو روز، حساب Google این شخص به دلیل محتوای خطرناک که به شدت خطمشیهای گوگل را نقض میکند و ممکن است غیرقانونی باشد، غیرفعال شد. محتوای مضر و خطرناک شامل آزار و بهره کشی جنسی از کودکان است. احتمالا هوش مصنوعی گوگل این تصاویر را به عنوان موارد پورنوگرافی کودکان در نظر گرفته است و آن را ممنوع کرده.
موارد فاجعه بارتری هنوز در راه است. این شخص که مارک نام دارد، کاربر گوگل است و برای همه چیز از همگام سازی برنامههای روزانه تا پشتیبان گیری از عکسها و ویدیوها به حساب جیمیل خود متکی است. اما به دلیل این مشکل مضحک، حسابهای وی یکی پس از دیگری بسته شدند. او توسط گوگل از استفاده از کل ابزارهای این شرکت مسدود شده است.
او دسترسی به ایمیل، مخاطبین و حتی عکسهایش را از دست داده و حساب Google Fi او بسته شده است (به این معنی که برای دریافت شماره تلفن جدید باید به شرکت مخابراتی دیگری مراجعه میکرد). گذراندن مراحل قانونی شکایت حدود وی نیز حدود ۷۰۰۰ دلار هزینه دارد. مارک گفته است که “فکر نمیکنم این موضوع ۷۰۰۰ دلار ارزش داشته باشد.” با این حال، با وجود هوش مصنوعی گوگل و حتی بازبینی دستی، همچنان حساب وی مسدود مانده است.
مارک در یک شرکت بزرگ حوزه فناوری به عنوان مهندس نرمافزار برای ابزار خودکاری که برای حذف محتوای ویدیویی که توسط کاربران به عنوان موارد مشکلساز علامت گذاری شده بود، کار میکرد. او میداند که برای اطمینان از اینکه هوش مصنوعی اشتباه نکند، معمولا یک فرآیند بررسی انسانی نیز وجود دارد. بنابراین، در ابتدا، مارک چندان نگران نبود. او احساس میکرد که تا زمانی که وارد مرحله بازبینی دستی شود، میتواند حساب خود را بازیابی کند. در غیر این صورت، او برای همیشه از زندگی دیجیتال قبلی خود جدا خواهد شد. او درخواستی را پر کرد و موضوع عفونت پای پسرش را به گوگل توضیح داد و از این شرکت خواست که این تصمیم را مجددا بررسی کند.
چند روز بعد، تیم گوگل پاسخ داد که این حساب بازگردانده نخواهد شد. در واقع، آنها حتی آنقدر پیش رفتند که فیلمها و عکسهای دیگر او را نیز، بی سر و صدا علامت گذاری کردند. بدتر از همه، اداره پلیس سانفرانسیسکو تحقیقات او را آغاز کرده است. هرچند این موضوع خندهدار است، اما چون گوگل فای و جی میل غیرفعال هستند، پلیس نمیتواند به مارک دسترسی پیدا کند.
پس از بررسیهای گسترده، پلیس به این نتیجه میرسد که این ماجرا اصلا کودک آزاری یا استثمار و بهرهکشی جنسی از کودکان نبوده است. اما پلیس نتوانست مستقیما با گوگل ارتباط برقرار کند تا بی گناهی مارک را به آنها اعلام کند. مارک بعدا یک گزارش به پلیس ارائه کرد و دوباره به گوگل مراجعه نمود، اما این بار هم فایدهای نداشت. به طور اتفاقی، این مشکل یک روز پس از غیرفعال شدن حساب مارک، یک مورد مشابه دیگر در تگزاس و برای شخص دیگری نیز رخ داده است.
بنا به درخواست پزشک اطفال، پدر کودک دیگری با استفاده از گوشی اندرویدی خود از عفونت اعضا احشایی نوزادش عکس میگیرد. از تصاویر بهطور خودکار در Google Cloud، فایل پشتیبان گرفته شد و سپس او از Google Chat برای ارسال تصاویر برای مادر کودک استفاده کرد. نتایج به طور قابل توجهی مشابه بود و اکانت جیمیل این شخص نیز غیرفعال شد. وی به خاطر این مشکل تقریبا در تمام ابعاد زندگی کاریاش با مشکل روبرو شده بود، زیرا آدرس ایمیلی نداشت.
پلیس هیوستون او را برای بررسی و تحقیق بیشتر به اداره پلیس دعوت کرد و وی پس از نشان دادن گزارش چت با پزشک اطفال به سرعت آزاد شد. پلیس او را بی گناه تشخیص داد، اما گوگل این کار را نکرد. اگرچه او یک کاربر ۱۰ ساله گوگل با حساب پولی است، اما هنوز نمیتواند آن را بازیابی کند. اکنون، پدر کودک از یک آدرس هاتمیل ایمیل بفرستد و بیرحمانه توسط گوگل با وی برخورد شود.
هوش مصنوعی گوگل میلیونها بار در سال، سوء استفاده جنسی از کودکان را گزارش میکند
در سال ۲۰۲۱، گوگل بیش از ۶۲۰.۰۰۰ گزارش از کودک آزاریهای ریپورت شده ارائه کرد. این شرکت مجبور شد حساب بیش از ۲۷۰.۰۰۰ کاربر را غیرفعال کند. همچنین به ۴۲۶۰ قربانی بالقوه کودک آزاری جنسی به مقامات هشدار داد. البته این شامل دو پدری میشود که در بالا اشتباه گوگل نسبت به آنها اشاره کردیم. غولهای فناوری که حجم زیادی از دادهها را جمع آوری میکنند، به عنوان یک ناظر عمل کرده و محتوا را برای نظارت و پیشگیری از جرم بررسی میکنند.
آنها هر سال تصاویری از کودکانی که میلیونها بار مورد استثمار یا آزار جنسی قرار گرفتهاند را علامت گذاری میکنند. اما بازرسی محتوا ممکن است نیازمند نگاه کردن به آرشیوهای خصوصی باشد، مانند نگاه کردن به آلبوم های عکس دیجیتال شما. این دو پدر انتظار چنین چیزی را نداشتند، بنابراین جستجوی مراقبتهای پزشکی در گوگل به آزار جنسی کودکان برای آنها تبدیل شد.
هنگام بررسی، غولهای فناوری معمولا از دو ابزار استفاده میکنند که یکی از آنها PhotoDNA است که توسط مایکروسافت در سال ۲۰۰۹ منتشر شد. این ابزار یک پایگاه داده از عکسهای کودک آزاری ایجاد کرده و عکسهای موجود در آلبوم الکترونیکی هر فرد را با عکسهای موجود در آن پایگاه داده مقایسه میکند. حتی اگر عکسها کمی متفاوت باشند، میتواند کاربرانی را پیدا کند که تصاویر کودک آزاری را منتشر میکنند. امثال فیس بوک، توییتر و ردیت همگی از PhotoDNA استفاده میکنند.
مورد دیگر نیز، Developer Toolkit Content Safety API است که توسط گوگل در سال ۲۰۱۸ منتشر شد. این ابزار از شبکههای عصبی عمیق برای پردازش تصاویر استفاده میکند و به سانسورچیها اجازه میدهد تا ۷۰۰ درصد تصاویر کودک آزاری بیشتری را در همان زمان پردازش کنند. گوگل خود از این جعبه ابزار هوش مصنوعی استفاده میکند و همچنین آن را به صورت متن باز برای فیس بوک و دیگران منتشر کرده است. روند کلی بررسی تصاویر توسط این ابزار هوش مصنوعی به شرح زیر است:
به گفته GizChina، ابزار هوش مصنوعی گوگل توانایی شگفت انگیزی در شناسایی محتوای تصویر نشان داده است. CyberTipline در سال ۲۰۲۱ روزانه ۸۰.۰۰۰ گزارش دریافت کرده است. این گزارشها توسط ۴۰ تحلیلگر بررسی میشوند تا NCMEC بتواند موارد مهم را به پلیس گزارش دهد. مدیر CyberTipline گفت که این سیستم به درستی کار میکند؛ اما این بدون شک یک شمشیر دو لبه نیز هست. به هر حال، اگر شرایط جدی باشد، حتی اگر والدین بی گناه باشند، ممکن است حضانت فرزندان خود را از دست بدهند.