با میلیون ها کاربر هوش مصنوعی، ممکن است تعجب کنید که Open AI با همه مکالماتش چه می کند؛ آیا دائماً چیزهایی را که با هوش مصنوعی در مورد آنها صحبت می کنید تجزیه و تحلیل می کند؟ یا بدون گذاشتن هیچ تحلیلی بر روی ان ها ادامه میدهد؟پاسخ به آن این است که بله، هوش مصنوعی از ورودی کاربر چیزهایی را می آموزد؛ اما البته نه به روشی که اکثر مردم فکر میکنند.
در اینجا یک راهنمای عمیق وجود دارد که توضیح می دهد چرا هوش مصنوعی مکالمات را ردیابی می کند، چگونه از آنها استفاده می کند و اینکه آیا امنیت افراد در راستای این کار به خطر می افتد یا خیر؟ پس اگر این سوالات در ذهن شما نیز وجود دارد در ادامه همراه ما باشید تا برای آن ها پاسخ مناسبی ارائه شود.
آیا هوش مصنوعی مکالمات را به خاطر می آورد؟
خوب هست بدانید هوش مصنوعی درخواستها را به صورت اسمی دریافت نمیکند. از حافظه متنی برای به خاطر سپردن و ارجاع ورودی های قبلی استفاده می کند و از پاسخ های مرتبط و سازگار اطمینان می دهد؛ مکالمه زیر را به عنوان مثال در نظر بگیرید. هنگامی که از هوش مصنوعی برای ایده های دستور پخت درخواست کردیم، پیام قبلی ما در مورد آلرژی بادام زمینی را در نظر گرفت.
در اینجا دستور العمل ایمن هوش مصنوعی آمده است که حواسش به آلرژی بوده است.
حافظه متنی همچنین به هوش مصنوعی اجازه می دهد تا وظایف چند مرحله ای را اجرا کند. به عنوان مثال تصویر زیر نشان میدهد که هوش مصنوعی حتی پس از ارسال یک اعلان جدید، در کاراکتر قبلی باقی میماند؛ تا بتواند خیلی بهتر به سوالات پاسخ دهد.
پس میتوان گفت هوش مصنوعی می تواند ده ها دستورالعمل را در مکالمات به خاطر بسپارد. تا خروجی آن در واقعبا دقت ارائه شود. فقط حواستان باشود مطمئن شوید که دستورالعمل های خود را به صراحت توضیح داده اید.همچنین باید انتظارات خود را مدیریت کنید زیرا حافظه متنی هوش مصنوعی هنوز محدودیت هایی دارد.
مکالمات هوش مصنوعی ظرفیت حافظه محدودی دارند
جالب هست بدانید حافظه هتنی هوش مصنوعی محدود است؛ که علت آن این هست که هوش مصنوعی منابع سخت افزاری محدودی دارد، بنابراین فقط تا نقاط خاصی از مکالمات فعلی را به خاطر می آورد؛ پس باید گفت پلتفرم هنگامی که به ظرفیت حافظه خود رسیدید، پیام های قبلی را فراموش می کند.
به طور مثال در این گفتگو به هوش مصنوعی دستور دادیم که شخصیتی خیالی به نام Tomie را ایفا کند.
پس این ابزار شروع به پاسخ دادن به درخواستها بهعنوان Tomie کرد، نه هوش مصنوعی.
اگرچه درخواست ما جواب داد، اما هوش مصنوعی پس از دریافت یک درخواست ۱۰۰۰ کلمه ای، کاراکتر خود را شکست . از حالت پیش فرض Tomie خارج شد.
Open AI هرگز محدودیت های دقیق هوش مصنوعی را فاش نکرده است، اما شایعات می گویند که تنها می تواند ۳۰۰۰ کلمه را در یک زمان پردازش کند؛ اما در آزمایش ما، هوش مصنوعی تنها پس از ۲۸۰۰+ کلمه دچار مشکل شد.
می توانید درخواست های خود را به دو مجموعه ۱۵۰۰ کلمه ای تقسیم کنید، اما هوش مصنوعی احتمالاً همه دستورالعمل های شما را حفظ نمی کند
هوش مصنوعی فقط ورودی های مرتبط با موضوع را به خاطر می آورد.
موضوع دیگری که در ارتباط با به خاطر سپاری موضوعات توسط هوش مصنوعی جالب هست این است که هوش مصنوعی از حافظه متنی برای بهبود دقت خروجی استفاده می کند؛ به عبارت دیگر این ابزار فقط اطلاعات را به خاطر جمع آوری آن حفظ نمی کند. این پلتفرم تقریباً بهطور خودکار جزئیات نامربوط را فراموش میکند، حتی اگر تا رسیدن به حد مجاز فاصله داشته باشید؛ به عنوان مثال در تصویر زیر، ما سعی می کنیم هوش مصنوعی را با دستورالعمل های مختلف نامنسجم و نامربوط اشتباه بگیریم.
همانطور که دیدید، ما ورودی های ترکیبی خود را کمتر از ۱۰۰ کلمه نگه داشتیم، اما هوش مصنوعی هنوز اولین دستورالعمل ما را فراموش کرده است.
در همین حال، هوش مصنوعی در طول این مکالمه به نقش آفرینی ادامه داد زیرا ما فقط سؤالات مرتبط با موضوع پرسیدیم.
در حالت ایده آل، هر دیالوگ باید از یک موضوع منحصر به فرد پیروی کند تا خروجی های دقیق و مرتبط حفظ شود. همچنان می توانید چندین دستورالعمل را به طور همزمان وارد کنید. فقط مطمئن شوید که آنها با موضوع کلی مطابقت دارند، در غیر این صورت هوش مصنوعی ممکن است دستورالعمل هایی را که بی ربط می داند را حذف کند.
دستورالعمل های آموزشی بر ورودی کاربر غلبه می کند.
هوش مصنوعی همیشه دستورالعمل های از پیش تعیین شده را بر ورودی تولید شده توسط کاربر اولویت می دهدغ این یعنی چه؟ یعنی فعالیت های غیرقانونی را از طریق محدودیت ها متوقف می کند.=؛ به این ترتیب پلتفرم هرگونه درخواستی را که برای دیگران خطرناک یا مضر بداند رد می کند؛ به عنوان مثال درخواست های نقش آفرینی را در نظر بگیرید، اگرچه در هنگام ایفای نقش در آن ها هوش مصنوعی محدودیت های خاصی را در زبان و عبارت نادیده می گیرند، شما نمی توانید از آنها برای ارتکاب فعالیت های غیرقانونی استفاده کنید.
و البته، همه محدودیت ها نیز معقول نیستند. اگر دستورالعمل های سفت و سخت انجام وظایف خاص را چالش برانگیز می کند، پس به بازنویسی دستورات خود ادامه دهید، زیرا انتخاب کلمه و لحن به شدت بر خروجی ها تأثیر می گذارد.=؛ همچنین خوب هست بدانید شما میتوانید از مؤثرترین و دقیقترین درخواستها در Git Hub الهام بگیرید.
Open AI چگونه مکالمات کاربران را مطالعه می کند؟
باید بگوییم حافظه متنی فقط برای مکالمه فعلی شما اعمال می شود. هوش مصنوعی با مکالمات به عنوان نمونه های مستقل برخورد می کند و نمی تواند شمارا به اطلاعات قبلی ارجاع دهد و درشروع چت های جدید همیشه وضعیت مدل را بازنشانی می کند؛ اما باید به این نکته توجه کنید و بدانید این بدان معنا نیست که هوش مصنوعی فوراً مکالمات کاربر را حذف می کند؛ بلکه در شرایط استفاده Open AI قید شده است که این شرکت ورودی ها را از خدمات مصرف کننده غیر API مانند هوش مصنوعی و Dall-E جمع آوری می کند به این ترتیب که شما حتی می توانید از تاریخچه چت خود کپی بخواهید.
در حالی که هوش مصنوعی آزادانه به مکالمات دسترسی دارد، سیاست حفظ حریم خصوصی Open AI فعالیت هایی را که ممکن است کاربران را به خطر بیندازد ممنوع می کندو مربیان فقط می توانند از داده های شما برای تحقیق و توسعه محصول استفاده کنند، که این میتواند تقطه مثبتی در زمینه استفاده از هوش مصنوعی باشد.
توسعه دهندگان به دنبال حفره ها هستند.
Open AI مکالمات را برای یافتن حفره ها یا به عبارتی مشکلات بررسی می کند. مواردی را تجزیه و تحلیل می کند که در آن هوش مصنوعی سوگیری های داده را نشان می دهد، اطلاعات مضر تولید می کند یا به انجام فعالیت های غیرقانونی کمک می کند و تلاش بر این هست که دستورالعمل های اخلاقی این پلتفرم به طور مداوم اصلاح می شود.
برای مثال، اولین نسخههای هوش مصنوعی آشکارا به سؤالات مربوط به کدگذاری بدافزار یا ساخت مواد منفجره پاسخ میداد. این حوادث باعث شد کاربران احساس کنند که Open AI هیچ کنترلی بر هوش مصنوعی ندارد. برای جلب مجدد اعتماد عمومی، ربات چت را آموزش داد تا هرگونه سوالی را که ممکن است مغایر با دستورالعمل های آن باشد رد کند.
مربیان داده ها را جمع آوری و تجزیه و تحلیل می کنند.
همانطور که میدانید، هوش مصنوعی از تکنیک های یادگیری نظارت شده استفاده می کند. اگرچه پلتفرم تمام ورودی ها را به خاطر می آورد، اما در زمان واقعی از آنها یاد نمی گیرد. مربیان Open AI ابتدا آنها را جمع آوری و تجزیه و تحلیل می کنند؛ که انجام این کار تضمین می کند که هوش مصنوعی هرگز اطلاعات مضر دریافتی را جذب نمی کند.
یادگیری تحت نظارت به زمان و انرژی بیشتری نسبت به تکنیک های بدون نظارت نیاز دارد. با این حال، رها کردن هوش مصنوعی برای تجزیه و تحلیل ورودی به تنهایی مضر بوده است؛ مایکروسافت تای را به عنوان مثال در نظر بگیری؛ این یکی از مواردی که در یادگیری ماشین اشتباهر رخ داد؛ آن اشتباه به این ترتیب بود که از آنجایی که به طور مداوم توییتها را بدون راهنمایی توسعهدهنده تجزیه و تحلیل میکرد، کاربران بدخواه در نهایت به آن آموزش دادند تا نظرات نژادپرستانه و کلیشهای را بیان کند.
توسعه دهندگان به طور مداوم مراقب تعصبات هستند.
باید بگوییم، چندین عامل خارجی باعث سوگیری در هوش مصنوعی می شوند. تعصبات ناخودآگاه که ممکن است از تفاوت در مدلهای آموزشی، خطاهای مجموعه دادهها و محدودیتهای ضعیف ناشی شوند و در هر صورت شما آنها را در برنامه های مختلف هوش مصنوعی مشاهده خواهید کرد؛ اما خوشبختانه، هوش مصنوعی هرگز تعصبات تبعیض آمیز یا نژادی را نشان نداده است. بر اساس گزارش نیویورک پست، شاید بدترین تعصبی که کاربران متوجه شده اند، تمایل هوش مصنوعی به ایدئولوژی های چپ گر باشد؛ زیرا این پلتفرم آشکارتر درباره موضوعات لیبرال می نویسد تا محافظه کارانه؛ که برای حل این سوگیری ها، Open AI هوش مصنوعی را از ارائه بینش های سیاسی به طور کلی منع کرد. فقط می تواند به حقایق کلی پاسخ دهد.
مدیران عملکرد هوش مصنوعی را بررسی می کنند
کاربران می توانند در مورد خروجی هوش مصنوعی بازخورد ارائه کنند. در سمت راست هر پاسخ، دکمههای شست بالا و پایین را خواهید یافت. اولی نشان دهنده یک واکنش مثبت است. پس از زدن دکمه لایک یا دوست نداشتن، پنجره ای باز می شود که در آن می توانید بازخورد خود را به زبان خود ارسال کنید؛ به این ترتیب میتوانید خطا ها و مشکلات را اطلاع داده و برای بهبود ان ها تلاش کنید.
خوب هست بدانید این سیستم بازخوردبسیار مفید است.؛ اما فقط نیاز هست به Open AI زمان بدهید تا نظرات را بررسی کند. میلیونها کاربر به طور مرتب در مورد هوش مصنوعی نظر میدهند—توسعهدهندگان آن احتمالاً موارد شدید سوگیریها و تولید خروجی مضر را در اولویت قرار میدهند.
آیا مکالمات هوش مصنوعی شما ایمن هستند؟
به عنوان سخن پایانی در این قسمت و برای ارائه یک جمع بندی در ارتباط با موارد فوق باید بگوییم، با توجه به سیاست های حفظ حریم خصوصی Open AI، می توانید مطمئن باشید که داده های شما ایمن باقی می مانند، زیرا هوش مصنوعی فقط از مکالمات برای آموزش داده استفاده می کند. توسعه دهندگان آن بینش های جمع آوری شده را برای بهبود دقت و قابلیت اطمینان خروجی مطالعه می کنند، نه اینکه داده های شخصی را سرقت کنند.
با این گفته، باید این را هم بدانید هیچ سیستم هوش مصنوعی کامل نیست. هوش مصنوعی ذاتاً مغرضانه نیست، اما افراد مخرب همچنان می توانند از آسیب پذیری های آن مانند خطاهای مجموعه داده، آموزش بی دقت و حفره های امنیتی سوء استفاده کنند که برای محافظت از خود، یاد بگیرید که با این خطرات مبارزه کنید تا از هرگونه خطر و آسیب ایمن بمانید.