كيف نجحت Google في جعل مساعدها الصوتي يفكر مثل الإنسان؟

كيف نجحت Google في جعل مساعدها الصوتي يفكر مثل الإنسان؟

كيف تمكنت Google من جعل مساعدها الصوتي يفكر كإنسان؟
منذ إطلاقه ، أصبح Google Assistant نظامًا أساسيًا قائمًا بذاته ، ولم يعد الآن أكثر ذكاءً من أي وقت مضى فحسب ، ولكن مع أجهزة مثل Nest Hub أو Nest Mini ، لم يعد مجرد جزء من نظام Android.

اقرأ ايضا: افضل طرق كسب المال عبر الإنترنت مع المدونات والمواقع

كيف تمكنت Google من جعل مساعدها الصوتي يفكر كإنسان؟

مع نمو Google Voice Assistant من حيث إمكانياته ، يصبح أكثر تعقيدًا ، وهذا يعني أن المطورين يحتاجون إلى أدوات خاصة لإنشاء المحتوى الذي نريد استخدامه على شاشاتنا الذكية والأجهزة الأخرى التي تدعم المساعد. لنجاح Google Voice Assistant ، لدى المطورين شيئين مهمين للقيام بهما: إنه سهل الاستخدام ويعمل بشكل جيد. يصعب تحقيق هذين الأمرين المهمين ، ولكن يبدو أن إصدار واجهة الويب لـ Actions Builder و Actions SDK يفعل ذلك تمامًا.

لكي يكون المساعد الصوتي من Google رائعًا طالما أنه لا يستطيع التحدث والاستماع مثل الإنسان ، إذا طلبت من Google Home إخبار أطفالك بقصة ما قبل النوم أو أداء أغنية (Brush Your Teeth) ، فيجب أن يعرف ما تريد وأن يكون قادرًا على فعل ما. فقط اسأله عن النطق وبدون أن يتبع الروبوت التسلسل.

العاملان الأساسيان اللذان يميزان مساعد Google هما تدفق الكلام وفهم اللغة الطبيعية ، وبدون هذين الأمرين لن يتمكن المساعد من التفاعل بالطريقة التي نستمتع بها بالتفاعل معها.

يعد تدفق المحادثة مفهومًا سهلًا للغاية ، ويعني حرفياً كيف يبدو: عندما تقول شيئًا له ، يجب أن يكون المساعد جاهزًا للتحدث معك. وهذا سهل عندما تسأل عن الطقس أو حتى تطلب منه أن يغني أغنية عن تنظيف الأسنان ، ولكن عندما تتعقد الأمور ، هناك بعض الطرق المحددة للغاية التي يمكنك من خلالها إدارة المحادثة مع Google Voice Assistant ، مثل اختيار لعبتك الخاصة. أكثر من إجابة.

وهنا يأتي دور فهم اللغة الطبيعية (NLU) الذي يحتاجه مساعد Google لمعرفة أشياء مثل (نعم ، نعم ونعم) ، كلها تعني نفس الشيء ، لذلك يحتاج إلى معرفة مدى سلاسة الكلام. نتحدث جميعًا بشكل مختلف تمامًا عما نكتبه ، وبما أن المساعد هو مجرد كمبيوتر يعمل مثل الشخص ، فإن كل هذا يحتاج إلى تضمينه في أي مشروع كلام لأن أجهزة الكمبيوتر لا يمكنها التعلم حقًا ، فهي بحاجة إلى البرمجة.

لهذا السبب تحتاج Google إلى تشغيل Actions Builder و Actions SDK ، وهما أداتان جديدتان تسمحان للمطورين بإنشاء مشروع من البداية إلى النهاية بالطريقة الأكثر راحة لهم.

يُعرف منشئ الإجراءات كأداة قائمة على الويب تتيح للمطورين إنشاء إجراءات دردشة تمامًا كما تقوم بإنشاء مخطط انسيابي. ومع ذلك ، فإنه يحتوي على نفس الأدوات مثل SDK للتنمية التقليدية. يمكن لأي مطور استخدام هذه الواجهة الرسومية لتصور تدفق بيانات الكلام والإدخال (NLU) التي تم تدريب المشروع على فهمها ، وحتى تصحيح المنتج النهائي بطريقة مريحة وسهلة الفهم.

يقوم Actions SDK بنفس الشيء ولكنه أكثر تقليدية بالنسبة للمطورين الذين يفضلون العمل محليًا في IDE أو مع ملف نظرة عامة لمشروعهم. إذا كان للمطورين (IDE) تفضيل بالفعل ، فيمكنهم استخدامه مع أدوات سطر الأوامر لبناء المنتج النهائي بنفس الفوائد.

هذه الأدوات هي الواجهة الأمامية لبناء Google Voice Assistant بشكل أفضل وأسرع ، ووقت التشغيل يفكر فيه على أنه المحرك الذي يدير البرنامج الذي نستخدمه ، لأن Google Voice Assistant أصبح الآن أسرع من أي وقت مضى ونموذج التفاعل الجديد يعني أن المساعد أكثر ذكاءً وسهولة. قادم. بناء.

يتم إنشاء نموذج التفاعل الجديد بحيث يمكن إنشاء أشياء مثل المحادثات في الوقت الفعلي بشكل أسرع وأكثر كفاءة ، ويكون التدريب (NLU) أكثر قوة لأن المطورين يمكنهم إنشاء المشاهد واستخدامها كحجر بناء حيث يكون لكل جزء من الخطاب بياناته ومنطقه الخاص والأفضل. باستخدام الأهداف النشطة ، يمكن للمطورين إنشاء مشاهد وإعادة استخدامها في نفس الإجراء.

لن يطور معظمنا أي محتوى لـ Google Voice Assistant ، لكن هذا لا يزال مهمًا بالنسبة لنا لأن استخدام مثل هذه الأدوات يجعلنا نتوقع تطبيقًا أفضل للأجهزة التي تمكن Google Voice Assistant ، لذلك سنحصل على الكثير منه ويمكننا إعداد روتين صباحي لتشغيل الأضواء اليوم. الموسيقى ، ولكن من يدري ما يمكننا القيام به العام المقبل؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *