كل ساعة مقال

سجل بريدك للحصول على مقالات تناسبك

تكنولوجيا الذكاء الاصطناعي

تقنية الانتاجية تجتاح العناوين هذا العام. هنا السبب وما الذي يأتي بعدها

تستخدم الناس بشكل متزايد الروبوتات الدردشة التي تستجيب بطرق تشبه البشر. كما هو الحال مع أي ، هناك و. تعتمد تقنية الانتاجية على نموذج حاسوبي يستخدم أنماط اللغة للتنبؤ بالكلمات التالية في الجملة، ويجيب على استفسار المستخدم برد يشبه البشر. يتكون النموذج من طبقات متعددة من ال المتصلة ببعضها البعض، مستوحاة بشكل غامض من الروابط العصبية في الدماغ. خلال فترة ، تمر العقد المتصلة ببعضها البعض عبر مليارات القطع من الكتابة المجمعة من الإنترنت، وت الأنماط عن طريق تغيير قوة اتصالات العقد المختلفة. تم تطوير أنواع أخرى من الذكاء الاصطناعي الانتاجي لإنتاج الصور والفيديو وأكثر من ذلك.

لماذا كان الذكاء الاصطناعي الانتاجي كبيرًا هذا العام؟

لقد كان لدينا نماذج لغة لسنوات عديدة. ولكن الاختراق مع أنظمة مثل هو أنها كانت تحتاج إلى تدريب أكثر لتكون شريكًا في الحوار والمساعدة. تم تدريبهم على مجموعة أكبر من البيانات. وكان لديهم المزيد من ات ، بمقدار المليارات إلى التريليونات. تم تقديمهم أيضًا للجمهور ب جدًا. هذه الأشياء هي ما جعلتها تنجح ، وكان الناس مذهولين بمدى تشابهها مع البشر.

أين تعتقد أن الذكاء الاصطناعي الانتاجي سيكون له أكبر تأثير؟

هذا لا يزال سؤالًا مفتوحًا كبيرًا. يمكنني إدخال تعليمة لـ ، وأقول “يرجى كتابة ملخص لورقتي البحثية التي تحتوي على هذه النقاط فيها” ، وسيقوم بإخراج ملخص جيد في كثير من الأحيان. كمساعد ، فهو مفيد للغاية. بالنسبة للصور الانتاجية ، يمكن للأنظمة إنتاج صور مخزنة. يمكنك فقط أن تقول إنني بحاجة إلى صورة لروبوت يمشي مع كلب ، وسيقوم بتوليد ذلك. ولكن هذه الأنظمة ليست مثالية. إنها ترتكب أخطاء. أحيانًا يتسببون في “هلوسة”. إذا طلبت من ChatGPT كتابة مقال حول موضوع ما وأيضًا تضمين بعض الاقتباسات ، فقد يقوم أحيانًا بتأليف اقتباسات غير موجودة. وقد يولد أيضًا نصًا غير صحيح.

هل هناك مخاوف أخرى؟

إنها تتطلب الكثير من . تعمل في مراكز بيانات ضخمة تحتوي على أعداد ضخمة من الكمبيوترات التي تحتاج إلى الكثير من الكهرباء وتستخدم الكثير من الماء للتبريد. لذا هناك تأثير بيئي. تم تدريب هذه الأنظمة على اللغة البشرية ، ولدى المجتمع البشري العديد من التحيزات التي تنعكس في اللغة التي استوعبتها هذه الأنظمة – تحيزات عرقية وجنسية وديموغرافية أخرى.

ما رأيك في الضجة؟

يجب على الناس أن يكونوا على علم بأن الذكاء الاصطناعي هو مجال يميل إلى التهويل ، منذ بدايته في الخمسينيات ، وأن يكونوا متشككين إلى حد ما في المطالبات. لقد رأينا مرارًا وتكرارًا أن تلك المطالبات مبالغ فيها للغاية. هؤلاء ليسوا بشرًا. على الرغم من أنهم يبدون مشابهين للبشر ، إلا أنهم مختلفون في كثير من الطرق. يجب أن يراهم الناس كأداة لتعزيز ذكاءنا البشري ، وليس لاستبداله – والتأكد من وجود إنسان في الحلقة بدلاً من منحهم الكثير من الاستقلالية.

ما هي الآثار المحتملة للتقلبات الأخيرة في OpenAI على مشهد الذكاء الاصطناعي الانتاجي؟

تظهر [الاضطرابات] شيئًا كنا نعرفه بالفعل. هناك نوع من التطرف في مجتمع الذكاء الاصطناعي ، سواء من حيث البحث أو من حيث الذكاء الاصطناعي التجاري ، حول كيفية التفكير في سلامة الذكاء الاصطناعي – مدى سرعة إطلاق هذه الأنظمة الذكاء الاصطناعي إلى الجمهور وما هي الحواجز الضرورية. أعتقد أنه يجعل من الواضح جدًا أننا لا يجب أن نعتمد على الشركات الكبيرة التي تتركز فيها السلطة الآن لاتخاذ هذه القرارات الضخمة حول كيفية حماية أنظمة الذكاء الاصطناعي. نحتاج حقًا إلى أشخاص مستقلين ، على سبيل المثال ، تنظيم حكومي أو لجان أخلاقية مستقلة ، لديهم مزيد من السلطة.

ما الذي تأمل في حدوثه بعد ذلك؟

نحن في حالة من عدم اليقين حول ماهية هذه الأنظمة وما يمكنها فعله ، وكيف ستتطور. آمل أن نجد بعض التنظيم المعقول الذي يخفف من ال المحتملة ولكن لا يقيد الأمر بشدة فيما يمكن أن يكون مفيدة جدًا.

Source: https://www.sciencenews.org/article/generative-ai-chatgpt-safety


Posted

in

by

Comments

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *