قد تكون قدرة Alexa على تقليد أقارب الموتى هي أكثر الأشياء رعباً على الإطلاق

جدول المحتويات:

قد تكون قدرة Alexa على تقليد أقارب الموتى هي أكثر الأشياء رعباً على الإطلاق
قد تكون قدرة Alexa على تقليد أقارب الموتى هي أكثر الأشياء رعباً على الإطلاق
Anonim

الوجبات الجاهزة الرئيسية

  • يمكن للمساعد الصوتي Alexa من Amazon نسخ صوت بأقل من دقيقة واحدة من الصوت.
  • يمكنك أن تطلب من Alexa قراءة قصة بصوت والد ميت.
  • إنها نفس فكرة المنتجات المقلدة العميقة ، وتستخدم فقط من أجل قوى الخير.
Image
Image

حيلة Amazon Alexa الأخيرة هي تعلم تقليد صوت أحد أفراد أسرته الميت ، حتى يتمكنوا من التحدث إليك من وراء القبر.

تحتاج Alexa إلى دقيقة واحدة فقط من الصوت المنطوق لتقليد الصوت بشكل مقنع.تعتبره أمازون ميزة مريحة يمكن أن تجعلك على اتصال بأحبائك ، ولكنها قد تكون أيضًا تجربة زاحفة جدًا. ويوضح مدى سهولة إنشاء صوت مزيف عميق يكون جيدًا بما يكفي لخداعنا ، حتى عندما يكون الصوت هو الصوت الذي نعرفه جيدًا.

"لقد دخلت Amazon بالتأكيد منطقة فريدة وغريبة إلى حد ما بإعلانها أن Alexa ستتمكن قريبًا من التعلم ثم استخدام صوت الأقارب المتوفين قريبًا ،" قال Bill Mann ، خبير الخصوصية في Restore Privacy ، لايف واير عبر البريد الإلكتروني. "بالنسبة لبعض الناس ، هذا ليس مخيفًا على الإطلاق. في الواقع ، يمكن أن يكون مؤثرًا بالأحرى."

شبح في الآلة

كجزء من مؤتمر re: MARS السنوي ، تعرض أمازون الميزة في فيديو قصير. في ذلك ، يسأل أحد الأطفال أليكسا عما إذا كان بإمكان جدته الاستمرار في قراءته "ساحر أوز" ، وهو مجال عام مفضل لكل طفل مناسب للكلمات الرئيسية. وهي لحظة مؤثرة للغاية. من الصعب ألا تشعر بالعواطف الإنسانية عندما تبدأ الجدة في القراءة.

"البشر يكافحون مع الموت ، خاصة في الثقافة الغربية. لقد حاولنا لقرون إيجاد طرق لإحياء ذكرى الموتى ، من أقنعة الموت إلى خصلات الشعر إلى الصور القديمة إلى مشاهدة الأفلام القديمة" ، أندرو سيليباك ، أستاذ وسائل التواصل الاجتماعي بجامعة فلوريدا ، لـ Lifewire عبر البريد الإلكتروني. "تستخدم تقنية Deepfakes أحدث التقنيات لإنشاء قناع موت جديد لأحد أفراد أسرته المتوفى. ولكن ، اعتمادًا على وجهة نظر المرء ، هل هو مخيف أم وسيلة لإحياء ذكرى شخص تحبه والاحتفاظ به بعد وفاته؟"

لكن تذكار موري يمكن أن يكون مريحًا وزاحفًا. مات صديق أحد أفراد الأسرة ، ومع ذلك لا يزال بإمكانك سماع حديثه. لا يساعد أن يكون لدى Alexa تاريخ من السلوك الغريب والمرعب أحيانًا. في عام 2018 ، بينما كان كاتب عمود الرأي في نيويورك تايمز فرهاد مانجو ينام ، بدأ جهاز أمازون إيكو "يبكي ، مثل طفل يصرخ في حلم من أفلام الرعب".

بعد فترة وجيزة ، اعترفت أمازون بأن أليكسا ضحك أحيانًا بصوت عالٍ ، وهو ، إلى جانب المراهقين والأقبية ، فيلم رعب 101.

لا يسع المرء إلا أن يتساءل كيف يمكن أن تشعر إذا كانت أليكسا تستخدم نفس الحيل في صوت الجدة.

مزيف عميق

السهولة الواضحة التي يتعلم بها Alexa تقليد الصوت تقودنا إلى استخدامات شائنة أكثر لاستنساخ الصوت: التزييف العميق.

Image
Image

"صوت Deepfake ليس جديدًا ، حتى لو كان قليل الفهم وغير معروف. كانت التكنولوجيا متاحة لسنوات لإعادة إنشاء صوت الفرد بالذكاء الاصطناعي والتعلم العميق باستخدام صوت فعلي قليل نسبيًا من الشخص ،" يقول Selepak. "يمكن أن تكون هذه التكنولوجيا أيضًا خطيرة ومدمرة. يمكن للفرد المضطرب إعادة إنشاء صوت صديق أو صديقة سابقة ميتة واستخدام الصوت الجديد لقول أشياء بغيضة ومؤلمة."

هذا فقط في سياق Alexa. يمكن أن يتجاوز الصوت المزيف العميق ذلك بكثير ، حيث يقنع الناس بأن السياسيين البارزين يصدقون أشياء لا يفعلونها ، على سبيل المثال.ولكن من ناحية أخرى ، كلما اعتدنا أكثر على هذه التزييفات العميقة - ربما في شكل أصوات أليكسا هذه - كلما زاد تشككنا في المنتجات المقلدة الأكثر شناعة. ثم مرة أخرى ، نظرًا لمدى سهولة نشر الأكاذيب على Facebook ، ربما لا.

لم تذكر أمازون ما إذا كانت هذه الميزة قادمة إلى Alexa أم أنها مجرد عرض تقني. أنا آمل أن تفعل ذلك نوعًا ما. تكون التكنولوجيا في أفضل حالاتها عندما يتم استخدامها بطريقة إنسانية مثل هذا ، وعلى الرغم من أن رد الفعل السهل هو تسميتها مخيفًا ، كما يقول Selepak ، فهي في الحقيقة لا تختلف كثيرًا عن مشاهدة مقاطع الفيديو القديمة أو الاستماع إلى رسائل البريد الصوتي المحفوظة ، كإحدى الشخصيات في برنامج تلفزيوني مكتوب بطريقة بطيئة.

وإذا كانت تقنية المنتجات المقلدة متوفرة بسهولة ، فلماذا لا نستخدمها لتهدئة أنفسنا؟

موصى به: