گوگل ساخته شده مستهجن پیشنهادات خود را برای تبلیغات هدفمند در زنان از رنگ

گوگل کلمات کلیدی برنامه ریز که نشان می دهد کلمات کلیدی مرتبط با آگهی یافت شده است که توصیه می شود مستهجن عبارات مرتبط به این واژه “مرد” “دختران لاتین” و “دختران آسیایی”

کلمات کلیدی مشابه به نظر می رسد برای همین اقوام اگر “دختران” را به “پسر”.

کلمات کلیدی به نظر نمی رسد برای “سفید” و “سیاه”.

نشانه گذاری که اولین گزارش در مورد کلمات کلیدی نشان می دهد گوگل در کلمات کلیدی مرتبط با اقلیت های جنسی شئ.

گوگل پورنوگرافی فیلتر برجسته 203 از 435 پیشنهاد شرایط به عنوان “بزرگسالان ایده”.

معلوم نیست چه این تعریف اشاره به اما نشانه گذاری حاکی از آن است که گوگل آگاه بود از کلمات کلیدی معانی جنسی.

نتایج شامل زنان و دهان و همچنین به عنوان “پیپر Perri تاریکی” با اشاره به فیلم بازیگر و انجمن شرکت تولید شده است.

نشانه گذاری ضمنی نیز که از آن ساخته شده بازاریابی خدمات مربوط به اقلیت های مشکل تر است.

“این زبان است که ظاهر در کلمه کلیدی ابزار برنامه ریزی و توهین آمیز است در حالی که ما با استفاده از فیلتر برای جلوگیری از این نوع نظر از ظاهر آن کار نمی کند به عنوان در نظر گرفته شده در این مثال” یک سخنگوی گوگل گفت: در پاسخ به این گزارش.

“ما برداشته ایم این شرایط از این ابزار و به دنبال چگونه ما برای جلوگیری از این اتفاق می افتد دوباره.”

“درون ابزار ما فیلتر کردن شرایط است که سازگار نیست با ما آگهی سیاست” سخنگوی گفت. “و به طور پیش فرض ما فیلتر کردن پیشنهادات برای بزرگسالان محتوا. که فیلتر بدیهی است که کار نمی کند به عنوان در نظر گرفته شده در این مورد و ما در حال کار برای به روز رسانی سیستم های ما به طوری که کسانی که پیشنهاد کلمات کلیدی دیگر خواهد شد نشان داده شده است.”

گوگل تاکید کرد که به دلیل یک عبارت پیشنهاد شد به عنوان یک کلمه کلیدی به این معنا نیست که تبلیغات با استفاده از آن پیشنهاد می شود تایید شده است.

این شرکت ارائه نمی دهد به همین دلیل برای توضیح جستجو برای “سفید” و “سیاه” بازگشت نیست پیشنهاد نتایج. مستقل رسیده به Google برای کسب اطلاعات بیشتر.

Google Keyword Planner استفاده توسط بازاریابان برای تصمیم گیری چه کلمات کلیدی خواهد بود که بیشتر عاطفی در نتایج جستجوی گوگل است که گزارش تولید بیش از 134 $میلیارد دلار (£105 میلیارد دلار درآمد برای این غول جستجو در 2019.

گوگل محصولات می تواند منعکس کننده تعصبات و کلیشه های خود الگوریتم ها به دلیل راه آن شامل اطلاعات از اینترنت – چیزی که قابل مشاهده بوده است در سایر الگوریتم های.

آن پیشنهاد شد که به دلیل نژادی fetishisation از زنان از رنگ بود و علت این توصیه ها.

این اولین نمونه ای که در آن الگوریتم گوگل منجر به ظاهرا نژادپرستانه نتایج. در سال 2015 Google Maps نرم افزار گرفتگی شد به طوری که نتایج جستجو برای مجموعه ای از نژادپرستانه تهمت هدایت به کاخ سفید است.

در سال 2017, کشف شد که گوگل اجازه تبلیغ به هدف قرار دادن محتوا به کاربران بر اساس نژادی تهمت از جمله موهن القاب مانند “wetback” و همچنین گروه “نازی”.

Instagram متعلق به Facebook نیز به تازگی گفت که از آن خواهد شد اقدام به تغییر الگوریتم خود را برای جلوگیری از تعصب در برابر مردم از رنگ.

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.de

دیدگاهتان را بنویسید