چرا نباید به هوش مصنوعی اعتماد کنیم؟

چرا نباید به هوش مصنوعی اعتماد کنیم؟ دیجیتالر: اگر از دستیار صوتی مبتنی بر هوش مصنوعی الکسای آمازون بپرسید که آیا آمازون یک شرکت انحصاری است، پاسخ می دهد که نمی داند. این هوش مصنوعی که به آسانی سایر غول های فناوری را سرزنش می کند، در مورد اعمال نادرست شرکت والد خود سکوت اختیار می کند. بدین سبب آیا هوش مصنوعی تحت تسلط شرکت سازنده اش نظرات سوگیرانه می دهد؟


به گزارش دیجیتالر به نقل از ایسنا و به نقل از اس اف، هنگامی که الکسا به این شکل پاسخ می دهد، واضح است که منافع توسعه دهنده ی خودرا به منافع شما ترجیح می دهد. با این وجود، بطور معمول معین نیست که یک سیستم هوش مصنوعی به چه کسی خدمت می کند.
برای جلوگیری از مورد سو استفاده قرار گرفتن توسط این سیستم ها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. این بدان معناست که تعمدا ورودی هایی را که به آن می دهید بسازید و بطور نقادانه در مورد خروجی آن فکر کنید.
نسل های جدیدتر مدلهای هوش مصنوعی، با پاسخ های پیچیده تر و کوتاه ترشان، تشخیص این که چه کسی هنگام صحبت کردن نفع می برد را دشوارتر می کنند.
شرکت های اینترنتی آن چه شما می بینید برای تامین منافع خودشان دستکاری می کنند و این چیز جدیدی نیست. نتایج جستجوی گوگل(Google) و صفحه ی فیسبوک شما با ورودی هایی پر شده که برای نمایش آنها پول دریافت شده است. فیسبوک، تیک تاک(TikTok) و سایر شرکت های فناوری آن چه شما می بینید را دستکاری می کنند تا زمانی را که در این پلت فرم می گذرانید به حداکثر برسانند که خود به مفهوم بازدید بیش از آگهی ها توسط شماست.
آن چه سیستم های هوش مصنوعی را از سایر خدمات اینترنتی متمایز می کند میزان تعاملی بودن آنها است و این که چگونه این تعاملات بطور فزاینده ای شبیه به روابط می شوند. نیازی نیست زیاد از فناوری های امروزی فاصله بگیرید که بتوانید آینده ای را تصور کنید که در آن هوش مصنوعی سفرهایی را برای شما برنامه ریزی می کند، از جانب شما مذاکره می کند یا به عنوان درمانگر و مربی در زندگی شما عمل می کند.
آنها احتمالاً ۲۴ ساعته با شما خواهند بود، شما را از نزدیک می شناسند و می توانند نیازهای شما را پیش بینی کنند. آنها در راه تبدیل شدن به دستیاران دیجیتال شخصی هستند.
به عنوان یک متخصص امنیت و دانشمند داده ما معتقدیم افرادی که به این هوش مصنوعی ها تکیه می کنند باید بطور ضمنی به آنها اعتماد کنند تا زندگی روزمره را بگذرانند. این بدان معناست که آنها باید مطمئن شوند که هوش مصنوعی مخفیانه برای شخص دیگری کار نمی کند.
در سرتاسر اینترنت، دستگاهها و سرویس هایی که بنظر می رسد برای شما کار می کنند، درحال مخفیانه کار کردن مقابل شما هستند.
تلویزیون های هوشمند از شما جاسوسی می کنند. برنامه های تلفن همراه داده های شما را جمع آوری کرده و می فروشند. خیلی از برنامه ها و وب سایت ها شما را بوسیله الگوهای تاریک فریب می دهند. این یک سرمایه داری نظارتی است و هوش مصنوعی درحال تبدیل شدن به قسمتی از آنست.
در تاریکی
احتمالاً شرایط با ظهور هوش مصنوعی خیلی بدتر می شود. به جهت اینکه دستیار دیجیتال هوش مصنوعی واقعا مفید باشد، باید شما را حتی بهتر از تلفن همراه شما و موتور جستجوگر گوگل شما بشناسد. حتی شاید از دوستان نزدیک، شرکای صمیمی و درمانگر شما نیز شما را بهتر بشناسد.
دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی وجود ندارد.
حقایق ساختگی که جی پی تی و دیگر مدلهای زبانی بزرگ تولید می کنند را فراموش کنید. انتظار می رود که با بهبود فناوری در چند سال آینده، آنها تا حد زیادی پاکسازی شوند.
اما نمی دانیم که انواع مختلف هوش مصنوعی چگونه پیکربندی شده اند. چگونه آموزش دیده اند، چه اطلاعاتی به آنها داده شده است و چه دستورالعمل هایی به آنها داده شده تا پیروی کنند. به عنوان مثال، پژوهشگران قوانین مخفی حاکم بر رفتار چت بات مایکروسافت بینگ را کشف کردند. آنها تا حد زیادی بی خطر هستند اما می توانند در هر زمانی تغییر کنند.
پول درآوردن
خیلی از این هوش مصنوعی ها با هزینه های هنگفت توسط تعدادی از بزرگترین انحصارهای فناوری ایجاد و آموزش داده می شوند. آنها جهت استفاده رایگان یا با هزینه خیلی کم به مردم ارائه می شوند. این شرکتها باید به نحوی از آنها درآمدزایی کنند و مانند سایر بخش های اینترنت، احتمالاً به صورتی شامل نظارت و دستکاری می شود.
تصور کنید از چت بات خود بخواهید برای تعطیلات بعدی شما برنامه ریزی کند. آیا شرکت هواپیمایی یا هتل زنجیره ای یا رستوران خاصی را انتخاب می کند که برای شما بهترین است یا جایی که شرکت سازنده ی هوش مصنوعی شما با آن شراکت پنهانی دارد؟
این مشابه نتایج پولی در جستجوی گوگل و تبلیغات در فیسبوک است که احتمالاً در طول زمان مخفیانه تر می شود.
اگر از چت بات خود اطلاعات سیاسی می خواهید، آیا نتایج تحت تاثیر سیاست های شرکت سازنده آن خواهد بود؟ یا معطوف به نامزد انتخاباتی که بیشترین پول را پرداخت کرده می شود؟ یا حتی دیدگاه جمعیت شناختی افرادی که از داده های آنها در آموزش مدل هوش مصنوعی استفاده شده است بر نتایج تاثیر دارد؟ آیا دستیار هوش مصنوعی شما مخفیانه یک جاسوس دوجانبه است؟ هم اکنون هیچ راهی برای دانستن آن وجود ندارد.
قابل اعتماد بودن بر طبق قانون
ما معتقدیم مردم باید از این فنآوری انتظار بیشتری داشته باشند و شرکت های فناوری و هوش مصنوعی می توانند قابل اعتمادتر شوند. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا اقدامات مهمی را انجام می دهد که نیازمند شفافیت در مورد داده های مورد استفاده برای آموزش مدلهای هوش مصنوعی، کاهش تعصب احتمالی، افشای خطرات قابل پیش بینی و گزارش دهی آزمایش های استاندارد صنعتی است.
بیشتر هوش مصنوعی های موجود از این دستورات نوظهور اروپایی پیروی نمی کنند.
هوش مصنوعی های آینده باید قابل اعتماد باشند. تا آن زمان که دولت حمایت های قوی از مصرف کننده برای محصولات هوش مصنوعی ارائه نکند، مردم در برآورد کردن خطرات و سوگیری های بالقوه هوش مصنوعی و کاهش بدترین اثرات آنها تنها هستند.
بنابراین، هنگامی که یک سفارش برای سفر یا اطلاعات سیاسی از یک ابزار هوش مصنوعی دریافت می کنید، با نگاه انتقادی آنرا ببینید.




منبع:

1402/05/07
10:06:14
5.0 / 5
293
تگهای خبر: آموزش , استاندارد , اینترنت , تبلیغات
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۵
دیجیتالر
digitaler.ir - حقوق مادی و معنوی سایت دیجیتالر محفوظ است

دیجیتالر

معرفی محصولات دیجیتال و فناوری اطلاعات