1. التدريب على كميات هائلة من البيانات:
تم تدريب النماذج مثل GPT على مليارات الصفحات من الإنترنت (قبل عام معين)، وتشمل:
كتب
مقالات
موسوعات (مثل ويكيبيديا)
مواقع تعليمية
أكواد برمجية
حوارات ونصوص عامة
> لكن: لم يتم تدريبه على معرفة خاصة بشخص أو شركة أو قاعدة بيانات مغلقة، وما يقال أحيانًا عن "سرقة معلومات" غير دقيق.
2. لا يتذكر معلومات حقيقية من الويب لحظة بلحظة:
النموذج لا يبحث في الإنترنت وقت الإجابة (إلا إذا تم تفعيله باستخدام أداة بحث حي). هو فقط يستخدم ما تعلّمه أثناء التدريب ليولّد إجابة منطقية.
3. لا "يعرف" كما يعرف الإنسان:
النموذج لا يملك وعي أو فهم حقيقي، بل يتنبأ بالكلمات بناءً على ما تعلمه من أنماط اللغة والمحتوى.
---
مثال مبسط:
تخيل أن عندك مكتبة ضخمة فيها ملايين الكتب والمقالات، وجلست سنوات تقرأ وتحفظ أنماط الكلام والمعلومات، فتقدر تجاوب على أي سؤال بسرعة.
هذا تقريبًا ما يحدث مع الذكاء الاصطناعي، لكنه لا "يفهم" كما نفهم، بل يتنبأ بالكلمة القادمة بدقة مذهلة.
---
ليست هناك تعليقات:
إرسال تعليق