منو اصلی
  صفحه اصلی
  تبلیغات
  تماس با ما
تبلیغات
موسیقی بی کلام
ابزار وب مسترها
  ابزار مجله در وبلاگ
  گوگل پلاس در وبلاگ
  شمارنده مطالب
  پازل وبلاگ
  تولبار حرفه ای
  ابزار پرش به بالا
  ذکر ایام هفته
  استخاره آنلاین
  سخنان بزرگان
  نمایش رتبه گوگل
  وضعیت آب و هوا
  اوقات شرعی
  فونت های زیباسازی
  کدهای زیباسازی فلش
  فال روزانه
  فال حافظ
  فال کلیکی
  فال انبیا
  طالع بینی ازدواج
  طالع بینی هندی
  عشق سنج آنلاین
  موسیقی لایت در وبلاگ
  ساخت موسیقی آنلاین
  ساعت های فلش
  ابزار فرم تماس با ما
  چت روم
  تصاویر تصادفی
  تصاویر زیباسازی
  لودینگ وبلاگ
  جستجوگر گوگل
  تعیین وضعیت یاهو
  ساخت ایمیل آیکون
  تقویم رومیزی
  تغییر شکل موس
  نمایشگر آی پی
  تعبیر خواب
  نمایش تاریخ
  بارش برف در وبلاگ
  پرواز بادکنک در وبلاگ
  پرواز حباب در وبلاگ
  قطرات شبنم در وبلاگ
  ابزار مبدل تاریخ ها
  جملات عاشقانه تصادفی
  جملات تصادفی شریعتی
  حدیث تصادفی
  اس ام اس تصادفی
  دانستنی های تصادفی
  مترجم گوگل
  معرفی وبلاگ به دوستان
  سرویس whois دامنه
  ابزار ار اس اس ریدر
  کد آپلود عکس
  دیکشنری آنلاین
  ساخت صفحات پاپ آپ
  ساخت تصاویر ثابت
  روزنما با مناسبت ها
  لحظه شمار غیبت امام زمان
  کدهای کاربردی
آرشیو قالب ها
لوگو اسپانسر
رپورتاژ ها
  زرد زخم چیست؟
  خرید موتور بنلی قسطی یا موتور یاماها قسطی؟ کدام به صرفه تر است؟
  علل اصلی خرابی گیربکس s5 چیست؟
  بروکر آلپاری
  دانستنی های مهاجرت به قبرس شمالی و اروپایی
  خشکسالی کشاورزی در ایران
  استخراج ارز دیجیتال چیست و چگونه انجام می‌شود؟
  پارمیس تولید کننده نرم افزارهای مالی و اداری در ایران
  با بررسی تخصصی دوربین آیفون 15 پرو شناخت کاملی از آن خواهید داشت!
  مهاجرت به قبرس شمالی از طریق خرید ملک
  رفع ارور خطا در بازی خدای جنگ یک
  5 مرحله ایجاد کسب و کار آنلاین



پنل اس م اس رایگان
صفحه اصلی » تکنولوژی » تعصبات منفی انسان ها به فناوری سرایت می کند

وکس نوشت: الکساندریا اوکازیو کورتز جوان ترین عضو کنگره ایالات متحده اخیرا در یک سخنرانی گفت که هوش مصنوعی می تواند نژاد پرست باشد و به نظر می رسد حق با وی است.این روزها برنامه های عکس و فیلم گوشی های هوشمند کارکردی خارق العاده دارند. برای مثال کافیست گوشی خود را در دست بگیرید و تصویر یک سگ را جستجو کنید. هوش مصنوعی گوشی شما به خوبی می داند سگ چه شمایلی دارد و به سرعت همه تصاویر مرتبط را بارگذاری می کند.

این شگفتی مدرن نتیجه نوعی هوش مصنوعی است. اما هوش مصنوعی یک وجه تاریک هم دارد، به خصوص اگر به درستی مورد استفاده قرار نگیرد. استفاده نادرست از هوش مصنوعی می تواند زمینه ساز تعصبات و تبعیض نژادی شود. این به این علت نیست که کامپیوترها نژادپرست هستند. این به این دلیل است که آنها با نگاه کردن به جهان ما انسانها رفتارهای غلط را می آموزند.

اخیرا، اوکازیو کورتز این موضوع را در یک بحث در رویداد روز مارتین لوتر کینگ در نیویورک مطرح کرد.او گفت: “الگوریتم ها هنوز هم  توسط انسان ساخته می شوند و این الگوریتم ها هنوز هم به مفاهیم اساسی انسانی وابسته هستند. آنها فقط مفروضات خودکار هستند و اگر شما تعصب را کنار نگذارید، پس شما فقط این تعصب را تبدیل به سیستمی خودکار می کنید. “

به نظر می رسد کورتز درست می گویدف حتی اگر جمهوری خواهان به سخنان وی دهن کجی کنند. درواقع اگر دقت نکنیم، هوش مصنوعی مسیر تعصب ما انسان هنا را در جهان ادامه خواهد داد.

تقریبا تمام تکنولوژی های مصرفی جدید به نحوی از یادگیری رفتارهای انسانها استفاده می کنند. نگاهی به ترجمه های گوگل نشان می دهد این موضوع تا چه حد مهم است. درواقع هیچ کس به این نرم افزار دستور نداده تا یاد بگیرد که چگونه یونانی را به فرانسه و سپس به زبان انگلیسی ترجمه کند. این هوش مصنوعی این کار را از طریق بررسی تعداد بی شماری از متن ها و به شکل خودکار آموخته است.

یادگیری ماشینی برنامه ای است که از طریق میلیاردها نقطه داده برای حل مشکلات استفاده می شود مانند «آیا می توانید حیوان را در عکس شناسایی کنید»، اما همیشه مشخص نیست که این مشکل چگونه حل شده است و این به طور فزاینده ای روشن می کند که این برنامه ها می توانند بدون توجه مستقیم به ما، تعصبات و کلیشه هایمان را توسعه دهند.

در سال 2016پروپاپلیکا  یک تحقیق در مورد یک برنامه یادگیری ماشینی انجام داد که دادگاه ها برای پیش بینی برخی جرائم مورد استفاده قرار می دادند. پژوهشگران دریافتند که این نرم افزار افراد سیاه پوست را در معرض خطر ارتکاب جرم بیشتری نسبت به سفید پوستان قرار داده است.

این در حالی است که برنامه مذکور بخش بزرگی از داده های خود را به واسطه تعاملات انسانی و مکاشفه احتمالاتی سازماندهی کرده بود که انسان ها اعلام کرده بودند و این یعنی از لحاظ تاریخی، سیستم عدالت کیفری به سیاهپوستان آمریکایی ظلم می کند و اساس آن ناعادلانه است.

این داستان نشان می دهد یک افسانه عمیق در مورد یادگیری ماشینی صحت دارد. افسانه ای که معتقد است این سیستم ها نمی توانند تصمیمات بی طرفانه ای اتخاذ کنند. اما چه اتفاقی افتاد که برنامه های یادگیری ماشینی و هوش مصنوعی، تعصبات ما را در مقیاس وسیع حفظ کرد؟

موارد دیگر مبهم تر هستند. در چین، محققان تکنولوژی با استفاده از هوش مصنوعی و سیستم تشخیص چهره پیش بینی می کنند که یک نفر جنایتکار است. به نظر می رسد دقت این سیستم 89.5 درصد باشد.اما بسیاری از کارشناسان از یافته های اینچنینی نگران هستند. سوال این است که کدام ویژگی های چهره  توسط این برنامه تجزیه و تحلیل شده بود؟ آیا ویژگی های فیزیکی گروه های قومی خاصی بود که در نظام عدالت تبعیض آمیز اثر داشت؟

الکساندر تولوروف، روانشناس و استاد دانشگاه پرینستون در مصاحبه ای در سال 2017 گفت که در حال بررسی راهی برای تشخیص گرایشات جنسی از طریق بررسی وضعیت چهره افراد است. این موضوع از یک سو حساس و از سوی دیگر مخاطره آمیز است. بارها دیده شده که هوش مصنوعی اشتباهاتی فاحش دارد. نگاهی به ترجمه های گاه پرت و پلا و بی ربط مترجم گوگل نشان می دهد هوش مصنوعی گاهی حتی حرف آدم ها را متوجه نمی شود چه برسد به وضعیت جنسی، مذهبی، فرهنگی و …

در سال 2017، کالیزکان و همکارانش مقاله ای را در زمینه هوش مصنوعی منتشر کردند که سعی کردند در آن  به هوش مصنوعی بیاموزند که کلمات مرتبط مثل “ظرف” و “غذا” را خودکار ترکیب کند. انها 840 میلیارد کلمه را وارد سیستم یادگیری هوش مصنوعی کردند و نتایجی جالب هم گرفتند. در این پژوهش مشخص شد واژه “مهندس” اغلب با “آقا” همراه می شود نه “خانم”. واژه “سفید پوست” نیز بیشتر با واژه “دلپذیر” همراه می شد تا “سیاهپوست”.

مانند یک کودک،هوش مصنوعی ابتدا کلمات را یاد می گیرد سپس با مرور صحبت های بزرگ ترها تصمیم می گیرد کدام کلمه را کجا قرار دهد. بر همین اساس است که اغلب نامهای افریقایی با صفت های ناخوشاید و توهین آمیز ترکیب شده اند.

بر همین اساس است که برخی کارشناسان حوزه فناوری معتقدند افرادی که در حوزه یادگیری ماشینی و نرم افزار استخدام می شوند باید مرتب در مورد کليشه هاي جنسی و نژادی مطالعه کنند تا در دام این نوع مسائل نیفتند.  این موضوع  در آینده چالشی  مهم خواهد بود. در حال حاضر، هوش مصنوعی راه خود را در سیستم مراقبت های بهداشتی پیدا کرده است و به پزشکان کمک می کند تا درمان مناسب را برای بیماران پیدا کنند.

با این حال، اطلاعات سلامتی نیز با تعصبهای تاریخی پر شده است. برای مثال زنان بیشتر از مردان از جراحی می ترسند و در نتیجه هوش مصنوعی هم جراحی زنان را به تاخیر می اندازد. اما آیا چنین کلیشه هایی به لحاظ سلامتی خطرناک نیستند؟

با همه این ها نمی توان گفت این نوع برنامه ها کاملا بی فایده هستند.برنامه های یادگیری ماشینی در حال روبرو شدن با الگوهای تاریخی هستند که منعکس کننده نژاد یا جنسیت هستند  و  بنابراین تشخیص واقعیت و تعصب برایشان کمی دشوار است.

چه فردی به برنامه های یادگیری ماشینی یاد داده پرستاران زن هستند و مهندسان مرد؟ طبیعتا ما این کار را کرده ایم و اگر قرار است چیزی عوض شود ابتدا باید از خودمان شروع کنیم. انسان ها هنگام استفاده از این برنامه ها باید دائما بپرسند «چرا این نتایج را می گیرم؟» و خروجی این برنامه ها را برای تعصب بررسی کنند. آنها باید فکر کنند که آیا اطلاعاتی که آنها در حال دریافتش هستند متعصبانه است یا حقیقی. این یک برنامه تحقیقی و درازمدت برای دانشمندان حوزه کامپیوتر، اخلاق، جامعه شناسان و روانشناسان است.

اما حداقل افرادی که از این برنامه ها استفاده می کنند باید از این مشکلات آگاه باشند و تصدیق نکنند که یک کامپیوتر می تواند نتایج منفی بیشتری نسبت به یک انسان ایجاد کند.به طور کلی، مهم است که به یاد داشته باشید: هوش مصنوعی از جهان پیرامون ما یاد می گیرد.


نوشته شده توسط : مدیر | در تاریخ ۱۳۹۷/۱۱/۰۹ ساعت ۱۱ :۵۸ : ۳۹


دسترسی سریع
قالب های 3 ستونه
قالب های 2 ستونه
ابزار وبلاگ نویسان
آموزش وبلاگ نویسی
گالری عکس
آپلود عکس
بازی آنلاین
موسیقی لایت
بازی آنلاین

بازی آنلاین 660 بازی
بازی های دخترانه 16 بازی
بازی های ورزشی 97 بازی
بازی های تیراندازی 124 بازی
بازی های فکری 209 بازی
بازی های اکشن 126 بازی
بازی های مسابقه ای 50 بازی
بازی های متفرقه 38 بازی
بازی های محبوب

لینک ها
بک لینک شما در این مکان
کلیه حقوق متعلق به سایت نایت اسکین می باشد © Night-Skin.com 2004 - 2024