בדיקה עצמאית · פברואר 2026 Independent Benchmark · February 2026

תמלול בעברית,
סוף סוף בדיוק.
Hebrew transcription,
finally accurate.

הרצנו את QuickScribe מול מנועי התמלול המובילים על אודיו אמיתי מזום בעברית. התוצאות — לא היו אפילו קרובות.

We ran QuickScribe against every major transcription engine on real Hebrew Zoom audio. The results weren’t even close.

94.36%
דיוק תמלול
Transcription Accuracy
5.64% WER · סטייה של +1 מילה מול קו בסיס אנושי
5.64% Word Error Rate · +1 word variance vs human baseline

השוואה How we compare

מנוע Engine דיוק Accuracy WER סטיית מילים Word variance
QuickScribe מנצח Winner
94.36%
5.64% +1+1 word
OpenAI Whisper
77.27%
22.73% −40−40 words
Google Gemini Pro
76.02%
23.98% +1+1 word
Sonix
71.00%
29.00% 00 words
YouTube
47.81%
52.19% +42+42 words
CapCut
42.57%
57.43% +94+94 words
Clipchamp
34.95%
65.05% −48−48 words

מהו Word Error Rate (WER)? What is Word Error Rate?

מה זה WER WER explained

WER (שיעור שגיאות מילה) הוא המדד המקובל למדידת דיוק תמלול. הוא סופר החלפות, מחיקות והוספות הדרשות כדי להפוך את פלט המכונה לטקסט אנושי נכון.

Word Error Rate (WER) is the gold standard for measuring transcription accuracy. It counts substitutions, deletions, and insertions required to turn a machine transcript into the correct human text.

WER = (S + D + I) / N
S=החלפות D=מחיקות I=הוספות N=מספר מילים S=substitutions D=deletions I=insertions N=total words

איך הורצה הבנצ׳מארק How this benchmark was run

תמללנו פגישת זום אמיתית של 7 דק׳ בעברית דרך כל מנוע, ואז אימתנו מול תמלול ייחוס אנושי באמצעות פונקציית WER בפייתון. אותו אודיו, אותו ייחוס, ללא “דגימה מוטה” — לכל מנוע.

We transcribed a 7-minute real-world Hebrew Zoom meeting through each engine, then validated results against a human reference transcript using a standard Python WER function. No cherry-picking — same audio, same reference, every engine.


אל תסמכו רק עלינו Don’t take our word for it

הורידו את קובצי האודיו ואת תמלול הייחוס, הריצו כל מנוע שתרצו, ומדדו WER בעצמכם עם מחשבון מקוון — בלי התחייבות.

Download our test audio and the human-verified reference transcript, run any engine you want, and measure the WER yourself with a free online tool. No signup required.

שלב 01
Step 01

הורדת קבצי הבדיקה Download test files

אודיו 7 דק׳ (זום עברי) ותמלול ייחוס אנושי — למטה.

Get the original 7-min Hebrew Zoom audio and human reference transcript below.

שלב 02
Step 02

תמלול בכל מנוע Transcribe with any engine

הריצו דרך QuickScribe, Whisper, Gemini — מה שרוצים לבדוק.

Run the audio through QuickScribe, Whisper, Gemini — whichever tool you want to test.

שלב 03
Step 03

חישוב WER Calculate WER

הדביקו ייחוס + פלט מכונה בכלי WER חינמי.

Paste the human transcript and your machine output into the free WER tool and hit calculate.

למחשבון WER חינמי → Open free WER calculator →

למה עברית “שוברת” מודלים גנריים Why Hebrew breaks generic AI

קללת הרב־לשוניות The curse of multilinguality

מודלים שאומנו על עשרות שפות „מדללים” יכולת פונטית. דפוסי עיצורים ייחודיים, ניקוד חסר, ו־RTL — נדחסים בנתוני אימון גנריים.

Models trained on dozens of languages dilute capacity across competing phonetics. Hebrew’s structure is underrepresented in generic training data.

אודיו אמיתי = מלוכלך Real-world audio is messy

במעבדה — קול נקי. בפגישה — רעש, מיקרופון לא אחיד, הד. מודלים גנריים נשברים; ה־DSP אצלנו מכין את האות לפני הדיבור.

Lab = clean; meetings = noise and reverb. Generic models fail; QuickScribe’s DSP compensates first.

ניתוב דו-שלבי Dual-Stage Routing

מזהים שפה, ואז מנתבים ל־מומחה עברי — לא לרב־לשוני אחד. התמחות מנצחת.

We detect language, then route to a dedicated Hebrew model — not a single shared multilingual one.

הפער מצטבר The gap compounds

94% מול 77% נשמע קטן — אבל בשעה: מאות שגיאות מול עשרות. תיקון ידני יכול לקחת יותר מהפגישה מחדש.

At 94% vs 77%, a 1-hour meeting is hundreds of errors vs many fewer — fix time explodes.


שחזור עצמי Reproducible methodology

עברית Hebrew זום 7 דק׳ 7-min Zoom רעש אמיתי Real-world Python WER ייחוס אנושי Human ref פברואר 2026 Feb 2026

מקור אודיו: פגישת Zoom בעברית, ~7 דק׳, משרד רגיל, מיקרופון רגיל.

Audio source: 7-min Hebrew Zoom under normal conditions, standard hardware.

ייחוס: תמלול אנושי איכותי כבסיס הערכה.

Reference: Human ground truth as baseline.

מנועים: QuickScribe, Whisper, Gemini Pro, Sonix, YouTube, CapCut, Clipchamp — אותו קובץ, ברירת מחדל.

Engines: Same file, default settings, all listed engines.

הערכה: WER סטנדרטי; סטיית מילים — הפרש ספירת מילים מול האנושי.

Evaluation: Standard WER; word variance = count difference vs human.

בדקו בעצמכם ב־60 שניות See it yourself in 60 seconds

העלו אודיו בעברית וקבלו תמלול. בלי כרטיס. בלי התקנה. Upload your Hebrew audio and get a transcript. No credit card. No setup.

התחל לתמלל בחינם → Start transcribing free →