قريبًا ، قد لا تعرف أنك تتحدث إلى جهاز كمبيوتر

جدول المحتويات:

قريبًا ، قد لا تعرف أنك تتحدث إلى جهاز كمبيوتر
قريبًا ، قد لا تعرف أنك تتحدث إلى جهاز كمبيوتر
Anonim

الوجبات الجاهزة الرئيسية

  • يقترب اليوم بسرعة عندما لا تكون قادرًا على تمييز الكلام الناتج عن الكمبيوتر من الشيء الحقيقي.
  • كشفت Google مؤخرًا عن LaMDA ، وهو نموذج يمكن أن يسمح بمحادثات أكثر طبيعية.
  • إنتاج كلام يشبه الإنسان يتطلب أيضًا قدرًا هائلاً من قوة المعالجة.
Image
Image

في الوقت الحالي ، من السهل معرفة ما إذا كنت تتحدث إلى جهاز كمبيوتر ، ولكن هذا قد يتغير قريبًا بفضل التطورات الحديثة في الذكاء الاصطناعي.

كشفت Google مؤخرًا عن نموذج LaMDA ، وهو نموذج تجريبي تدعي الشركة أنه يمكن أن يعزز قدرة مساعدي الذكاء الاصطناعي للمحادثة ويسمح بمزيد من المحادثات الطبيعية.يهدف LaMDA في النهاية إلى التحدث بشكل طبيعي عن أي شيء تقريبًا دون أي نوع من التدريب المسبق.

إنه واحد من عدد متزايد من مشاريع الذكاء الاصطناعي التي قد تجعلك تتساءل عما إذا كنت تتحدث إلى إنسان.

"تقديري هو أنه في غضون الـ 12 شهرًا القادمة ، سيبدأ المستخدمون في التعرف على هذه الأصوات الجديدة الأكثر عاطفية والتعود عليها ،" جيمس كابلان ، الرئيس التنفيذي لشركة MeetKai ، وهو مساعد صوت افتراضي ومحادثات يعمل بالذكاء الاصطناعي المحرك ، قال في مقابلة عبر البريد الإلكتروني.

"بمجرد حدوث ذلك ، سيبدو الكلام المركب اليوم للمستخدمين مثل خطاب أوائل العقد الأول من القرن الحادي والعشرين لنا اليوم."

مساعدين صوتيين بالحرف

تم إنشاء LaMDA من Google على Transformer ، وهي بنية شبكة عصبية اخترعتها Google Research. على عكس نماذج اللغات الأخرى ، تم تدريب LaMDA من Google على الحوار الحقيقي.

كتب إيلي كولينز من Google في منشور مدونةجزء من التحدي المتمثل في جعل خطاب الذكاء الاصطناعي يبدو طبيعيًا هو الطبيعة المفتوحة للمحادثات.

Image
Image

"يمكن أن تتطور الدردشة مع صديق حول برنامج تلفزيوني إلى نقاش حول البلد الذي تم فيه تصوير العرض قبل الاتفاق على نقاش حول أفضل المأكولات الإقليمية في ذلك البلد" ، أضاف.

الأشياء تتحرك بسرعة مع كلام الروبوت. قال إريك روزنبلوم ، الشريك الإداري في Tsingyuan Ventures ، التي تستثمر في الذكاء الاصطناعي للمحادثات ، إن بعض المشكلات الأساسية في الكلام بمساعدة الكمبيوتر يتم حلها تقريبًا.

على سبيل المثال ، معدل الدقة في فهم الكلام مرتفع للغاية بالفعل في الخدمات مثل النسخ التي يتم إجراؤها بواسطة برنامج Otter.ai أو الملاحظات الطبية التي تم تسجيلها بواسطة DeepScribe.

وأضاف: "لكن الحدود التالية أصعب بكثير".

"الاحتفاظ بفهم السياق ، وهي مشكلة تتجاوز معالجة اللغة الطبيعية ، والتعاطف ، مثل أجهزة الكمبيوتر التي تتفاعل مع البشر تحتاج إلى فهم الإحباط ، والغضب ، ونفاد الصبر ، وما إلى ذلك.يتم العمل على هاتين المسألتين ، لكن كلاهما بعيد كل البعد عن أن يكون مرضيًا."

الشبكات العصبية هي المفتاح

لإنشاء أصوات تشبه الحياة ، تستخدم الشركات تقنية مثل الشبكات العصبية العميقة ، وهو شكل من أشكال التعلم الآلي الذي يصنف البيانات من خلال الطبقات ، مات مولدون ، رئيس أمريكا الشمالية في ReadSpeaker ، وهي شركة تطور برامج تحويل النص إلى كلام ، قال في مقابلة عبر البريد الإلكتروني.

"هذه الطبقات تحسن الإشارة ، وتصنفها في تصنيفات أكثر تعقيدًا" ، أضاف. "النتيجة هي كلام اصطناعي يبدو وكأنه إنسان غريب."

هناك تقنية أخرى قيد التطوير هي Prosody Transfer ، والتي تتضمن الجمع بين صوت تحويل النص إلى كلام مع أسلوب التحدث الخاص بآخر ، كما قال مولدون. هناك أيضًا نقل التعلم ، مما يقلل من كمية بيانات التدريب اللازمة لإنتاج صوت عصبي جديد لتحويل النص إلى كلام.

قال كابلان إن إنتاج كلام يشبه الإنسان يتطلب أيضًا قدرًا هائلاً من قوة المعالجة. تقوم الشركات بتطوير رقائق التسريع العصبي ، وهي وحدات مخصصة تعمل جنبًا إلى جنب مع المعالجات العادية.

"المرحلة التالية في هذا ستكون وضع هذه الرقائق في أجهزة أصغر ، كما هو الحال حاليًا للكاميرات عندما يكون الذكاء الاصطناعي للرؤية مطلوبًا" ، أضاف. "لن يمر وقت طويل قبل أن يتوفر هذا النوع من القدرة الحاسوبية في سماعات الرأس نفسها."

أحد التحديات التي تواجه تطوير الكلام الذي يحركه الذكاء الاصطناعي هو أن كل شخص يتحدث بشكل مختلف ، لذلك تميل أجهزة الكمبيوتر إلى صعوبة فهمنا.

قالت مونيكا ديما ، التي تعمل في تحليلات البحث الصوتي في MDinc ، في رسالة بالبريد الإلكتروني"فكر في جورجيا مقابل لهجات بوسطن مقابل لهجات نورث داكوتا ، وما إذا كانت اللغة الإنجليزية هي لغتك الأساسية أم لا". "بالتفكير عالميًا ، من المكلف القيام بذلك في جميع مناطق ألمانيا والصين والهند ، لكن هذا لا يعني أنه لا يتم أو لا يمكن القيام به."

موصى به: