تواجه أداة التفريغ الصوتي Whisper من شركة OpenAI انتقادات واسعة نتيجة “اختلاقها” لنصوص غير دقيقة أثناء تفريغ التسجيلات الصوتية، مما يهدد المؤسسات التي تعتمد على التقنية بشكل مباشر، مثل المستشفيات والمراكز الصحية.
أداة Whisper من OpenAI تثير مخاوف الدقة في التفريغ الصوتي
أبلغ عدد من المطورين والباحثين عن أن الأداة أحيانًا تُدرج معلومات غير حقيقية تتضمن أسماء أدوية وهمية، تعليقات ذات طابع غير لائق، وحتى عبارات تحمل طابعًا عنيفًا، مما قد يؤدي إلى آثار سلبية كبيرة في حال استخدام هذه النصوص في سياقات حساسة.
أداة Whisper من OpenAI تثير مخاوف الدقة في التفريغ الصوتي
شعبية الأداة رغم التحذيرات
رغم التحذيرات، شهدت النسخة الأحدث من Whisper تحميلات واسعة وصلت إلى 4.2 مليون مرة عبر منصة HuggingFace، كما تم دمج الأداة في منصات الحوسبة السحابية الخاصة بشركتي أوراكل ومايكروسوفت، بالإضافة إلى بعض إصدارات ChatGPT، مما يزيد من انتشارها في العديد من التطبيقات العملية.
الأدلة على مشكلة “الاختلاقات النصية”
تشير دراسات من جامعات وفرق بحثية مختصة إلى أن الأخطاء النصية في Whisper ليست حالات فردية. ففي دراسة من جامعة ميشيغان، تم رصد اختلاقات في ثمانية من كل عشرة تسجيلات. كما وثّق باحثون 187 حالة “هلوسة نصية” بعد تحليلهم لأكثر من 13 ألف تسجيل صوتي.
تزداد حساسية هذه الأخطاء في المجال الطبي، حيث تعتمد شركة “نابلا” على أداة Whisper لتفريغ التسجيلات الطبية لأكثر من 30 ألف طبيب و40 نظامًا صحيًا، وقد اُستخدمت الأداة في تفريغ نحو 7 ملايين استشارة طبية حتى الآن، مما يعرض البيانات الطبية لخطر التحريف.
لا توجد حتى الآن آلية دقيقة للتحقق من صحة النصوص المفرغة بواسطة Whisper، مما دفع شركة “نابلا” إلى حذف بعض البيانات لحماية الخصوصية، وتطلب من الأطباء مراجعة النصوص بشكل سريع، إلا أن هذا الإجراء يُثقل كاهل الطواقم الطبية.
تمثل الدقة في تفريغ التسجيلات الصوتية هاجسًا أساسيًا، خاصة في مجالات حساسة كالرعاية الصحية، حيث قد تؤدي الاختلاقات النصية إلى تداعيات خطيرة على القرارات العلاجية، مما يعزز الحاجة إلى تطوير تقنيات أكثر دقة وثباتًا في التفريغ الصوتي.