0

تبعیض در هوش مصنوعی آینده نگرانی مهم ساتیا نادلا

ساتیا نادلا درباره تبعیضات هوش مصنوعی هشدار داده است
  • ساتیا نادلا هشدار می دهد که نرم افزارهای هوشمند آینده می توانند تبعیض قائل شوند. در واقع ، الگوریتم های مغرضانه از قبل بر زندگی ما تأثیر گذاشته اند.

     

    مدیر عامل مایکروسافت ، ساتیا نادلا ، نگرانی خود را درباره تسلط هوش مصنوعی در زندگی ما مطرح کرده است. اخیراً ، او به فعالان صنعت رایانه توصیه کرد که در مورد طراحی نرم افزارهای هوشمند که به انسان احترام می گذارد فکر کنند. وی در مجله اینترنتی Slate نوشت: “حوزه فناوری نباید ارزشها و فضایل آینده هوش مصنوعی را دیکته کند.”

     

    نادلا می گوید که نرم افزار هوشمند باید طوری طراحی شود که ما بتوانیم مکانیسم آن را مرور کرده و اجازه ندهیم که در مورد برخی افراد تبعیض قائل شود یا از داده های شخصی سوء استفاده کند.

     

    این نگرانی ها مهم و منطقی هستند ، اما رهبران فناوری مدتهاست در مورد آنها صحبت می کنند. شواهد زیادی وجود دارد که الگوریتم ها و نرم افزارها در حال حاضر با سوگیری های نگران کننده زندگی روزمره ما را شکل می دهند.

     

    در تحقیقات خود ، کمیسیون تجارت فدرال دریافت که تبعیض نژادی و اقتصادی در دوران قبل از اینترنت دوباره ظاهر شده است و ما آن را در سیستم هایی که تبلیغات هدفمند و سایر خدمات آنلاین را مدیریت می کنند مشاهده می کنیم. در ایالت ویسکانسین آمریکا ، آنها می خواهند با استفاده از این سیستم پیش بینی کنند که آیا مجرم به ارتكاب جنایت ادامه می دهد یا خیر. با استفاده از نتایج این سیستم ، دادگاه مجازات مجرم را تعیین می کند.

     

    بدیهی است که برخی از مشکلاتی که مربوط به ساتیا نادلا است ، در حال حاضر وجود دارد. کیث کرافورد ، محقق در مایکروسافت می گوید: “شاید نرم افزار در حال حاضر نابرابری را در محل کار ، خانه و سیستم های حقوقی و قضایی تشدید کرده است.”

     

    نادلا نوشتار خود در زمینه هوش مصنوعی را خلاصه می کند: “مهمترین گام بعدی ما برای هوش مصنوعی ، تعیین چارچوبی اخلاقی و همدلانه برای طراحی آن است.”

    میانگین امتیازات ۵ از ۵
    از مجموع ۱ رای

    نظرات کاربران

    نظرات شما پس از بررسی مدیریت منتشر می شود.

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    چهار × 2 =