Ich habe mir Dragon vor ein paar Monaten gekauft, da ich sehr viel schreibe und hoffte, nicht nur meine Hände zu entlasten, sondern auch größere Wortmengen zu schaffen. Generell kann ich mit Dragon auch schnell arbeiten. Das Diktieren funktioniert gut und die Erkennungsgenauigkeit ist in Ordnung, allerdings bedarf jeder Text einer längeren Nachkorrektur.
Ich schreibe auch viele Texte, an denen ich nicht lange feile. Tippe ich diese, so bin ich meist nach einer schnellen Fehlerkorrektur fertig, da ich die meisten Fehler schon beim Schreiben beseitige. Mit Dragon bin ich schneller, obwohl ich schnell tipp (ca. 3000 Wörter in der Stunde vs 5000 in der Stunde mit Dragon). Allerdings dauert die Nachkorrektur viel länger und ist deutlich mühsamer. Das Programm macht einfach zu viele Fehler, wirklich vertrauen kann ich ihm nicht.
z.B wird das Wort er gerne verschluckt. Er war wird zu weiß. Es war genauso. Manchmal gibt es natürlich auch Fehlinterpretationen oder Wörter, die Dragon einfach nicht kennt. Das ist für mich nicht das Problem. Das Problem sind diese ganzen kleinen Fehler wie die oben genannten. Endungen stimmen auch manchmal nicht, aber das passiert im Vergleich selten. Ihn oder Ihm wird auch oft zu in und umgekehrt und hatte wird zu hätte. Ihr wird zu Hier.
Ich spreche Hochdeutsch und mein Headset ist nicht schlecht. Störgeräusche gibt es keine, allerdings spreche ich recht schnell (aber auch nicht unnatürlich schnell), da das Programm für mich sonst keinen Sinn macht. 99% Genauigkeit erreiche ich trotzdem nicht. Im Vergleich zu anderen Programmen ist Dragon zwar besser, aber die Genauigkeit liegt doch eher bei ca. 95%. In manchen Textabschnitten geht sie auch noch runter. Oft habe ich das Gefühl, dass Dragon manchmal einen schlechten Tag hat und dann sehr viele Fehler macht, andere Male ist die Genauigkeit wirklich in Ordnung.
Liegt es an mir? Ich habe mir mal eine Aufnahme von mir angehört, ich nuschle nicht und spreche eigentlich klar.
Das Programm ist zwar nicht schlecht, aber die angepriesenen 99% Genauikgeit kann es bei mir nicht halten. Außerdem ist mir aufgefallen, dass es auf Englisch erheblich schlechter funktioniert als auf Deutsch.
Endlich mal wieder ein Thema so ganz nach meinem Geschmack. Dafür habe ich das Forum gegründet. Vorab schon mal herzlichen Dank dafür!
_______________________________________
Dragon Professional 16 auf Windows 10 Pro und Windows 11 SpeechMike Premium (LFH3500); Office 2019 Pro + Office 365 (monatliches Abo) HP ZBook Fury 17 G8 - i7-11800H - 24 MB SmartCache - 32 GB RAM - 1 TB SSD
Bei mir funktioniert es auf Deutsch relativ gut, bis auf diese kleinen Fehler, die aber fast nicht zu vermeiden sind. Letztendlich gibt es Wörter, die eben gleich klingen und das kann das Progamm nicht immer sauber unterscheiden.
Auf Englisch funktioniert es aber wirklich schlecht. Da kommen Sätze bei raus, die man einfach nicht mehr verstehen kann und die Fehler Menge ist einfach zu hoch. Ob es an mir, am Programm oder an beidem liegt weiß ich noch nicht. Selbst am Anfang war Dragon nicht so schlecht in Deutsch. Vielleicht spreche ich zu ungenau. Andereseits gibt es im Englischen wohl noch mehr ähnliche Wörter.
1. 95% ist nicht abwegig, aber steigerungsfähig. Ihre Beispiele (ihn/in, ihr/hier) deuten auf Verbesserungspotenzial bei der Satzmelodie und auch sonst im akustischen Bereich hin. Es kommt halt auch auf die Folgeworte an. Je näher der Auflaut am Auslaut (nennt man das so, Rüdiger?), desto besser macht man ein Mini-Päuschen. Geschwindigkeit als solche ist nicht das Problem. 2. Sorgfältige Korrektur ist Trumpf, Wert der Genauigkeitsoptimierung ist umstritten. Ich finde sie zweckmäßig. 3. Im Englischen ist das Programm sehr gut - für Muttersprachler/-innen. Wer z.B. als Deutsche/-r die amerikanische Sprechweise (Lautbildung, Akzent) nicht sehr gut drauf hat, sollte das Sprachmodell mit dem britischen Akzent wählen.
Danke erst einmal für die bisherigen sehr hilfreichen Antworten.
Meine Ergänzungen dazu, in unsortierter Reihenfolge:
Was Meinhard mit „Je näher der Auflaut am Auslaut (nennt man das so, Rüdiger?), desto besser macht man ein Mini-Päuschen. Geschwindigkeit als solche ist nicht das Problem.“ völlig richtig angesprochen hat, nennt man in der Linguistik „Elision“. Hier dazu eine Kurzdefinition:
"Die Elision ist ein Phänomen der gesprochenen Sprache, bei dem ein Laut an einer bestimmten Position ausgelassen wird und somit wegfällt. Dabei unterscheidet man zwischen Synkope und Apokope: Bei der Synkope fällt der Laut in der Mitte des Wortes weg: waren, warn. Bei der Apokope fällt der Laut am Ende des Wortes weg: nicht, nich.
Grund für eine Elision sind sprachliche Ökonomieprozesse. Beim zügigen, unbewussten Sprechen ist es einfacher, unbetonte Laute wegzulassen."
Die hier angesprochenen „sprachlichen Ökonomieprozesse“, die in der natürlichen Konversation nahezu erwartet werden, damit es nicht gestelzt klingt, sind bei der Verwendung von Spracherkennungssoftware verständlicherweise schädlich bis tödlich, wenn dies dazu führt, dass Phonemgrenzen verwischen, und wenn diese dann gleichzeitig die Wortgrenzen markieren, Wörter und ganze Phrasen untereinander verwechselt werden können.
Ein typisches Beispiel einer Verwechslung, die bei mir immer wieder vorkommt ist: „dass ich“ und „dass sich“, was praktischerweise nur dann richtig im Sinne von wie gewollt umgesetzt wird, wenn ich ganz klar die Wortgrenzen artikuliere.
Wenn man einmal genau darauf achtet, wie Nachrichtensprecher und -sprecherinnen sprechen, fällt auf, dass hier bis in die letzte Silbe hinein akzentuiert artikuliert wird. Das gilt natürlich nicht für so manche Präsentationen der Wetternachrichten.
Womit wir, ebenso quasi nahtlos, beim nächsten Thema wären, nämlich der Frage nach der Erkennungsrate oder der Erkennungsgenauigkeit in Prozent. Was ja wohl der eigentliche Titel des Themas war.
Wie Meinhard schon sagte, sind 95 % sicherlich recht passabel, und an vielen Tagen würde ich mir wünschen, dass ich darauf komme. Wo sich die aktuelle Marketing-Strategie des Herstellers bewegt, weiß ich gar nicht so genau, aber wenn dort von 99 % Erkennungsgenauigkeit gesprochen wird, möchte ich mir gar nicht ausmalen, dass das schon das nahende Ende der Entwicklung sein soll, denn sehr viel Luft nach oben wäre dann nicht mehr.
Spaß beiseite. Ich behaupte, wenn alle Randbedingungen erfüllt sind, nämlich: Hardware und Umgebung sind o. k., worüber man nicht sprechen braucht und was im Grunde nur 10 % des Anteils ausmachen, alle verwendeten Wörter und Phrasen im aktiven Vokabular vorhanden sind und gleich klingende Wörter oder Phrasen anhand des Kontextes eindeutig zugeordnet werden können, was schätzungsweise 40 % des Anteils ausmacht, und, oder aber so gesprochen wird, wie ein ausgebildeter Sprecher oder eine ausgebildete Sprecherin die Software verwenden würde, wäre eine Erkennungsgenauigkeit von 100 % gesichert. Schon heute, und vielleicht auch schon gestern.
Dass wir in der Praxis demgegenüber dahinter, bisweilen sogar ganz weit, zurückfallen, selbst bei ernsthafter Bemühung darum, hat so seine Gründe, und die von der Verfasserin des Themas angeführten Einzelbeispiele von Fehlerkennungen sind mir selbst nur allzu bekannt, hinsichtlich der Wortgrenzen-Unterscheidung als auch der Wortendungen. Ich beobachte, dass es, neben möglichen Mängeln in der Artikulation, oft einfach nur daran liegt, dass die gewünschte Flexion des betreffenden Wortes noch nicht aktiv ist, aber bei Korrektur im Buchstabierfenster fast auf magische Weise auftaucht, demnach also im Hintergrund-Vokabular schon hinterlegt war.
Was schließlich den Hinweis angeht, dass Dragon praktisch an manchen Tagen in einer schlechteren Verfassung sein soll als sonst, fällt mir als Anekdote ein, dass vor Jahren einmal ein, ansonsten durchaus als ernsthafter Anwender der Software zu bezeichnender Mitstreiter, ebenso ernsthaft, in einem öffentlichen Forum vorgetragen hat, dass bei ihm Dragon morgens immer in einer Spitzenverfassung ist, tagsüber aber nachlässt und gegen Abend praktisch gar nicht mehr zu gebrauchen ist. Und daran hielt er fest, auch gegen jeden Einwand.
Dazu als Hinweis und meinerseits nur als Beobachtung, dass Dragon wie ein Seismograph auch auf geringste Schwankungen im sprachlichen Duktus reagieren kann, was meistens nicht zur Verbesserung führt, im Gegenteil. Einfacher formuliert: Immer wenn ich Stress habe, muss ich mich nicht wundern, dass nur noch Schrott dabei herauskommt.
An die Verfasserin des Themas gerichtet: Gratulation, Sie sind auf dem besten Weg und haben meine Achtung.
PS: Das englische Benutzerprofil ist dem deutschen in allen Belangen überlegen.
_______________________________________
Dragon Professional 16 auf Windows 10 Pro und Windows 11 SpeechMike Premium (LFH3500); Office 2019 Pro + Office 365 (monatliches Abo) HP ZBook Fury 17 G8 - i7-11800H - 24 MB SmartCache - 32 GB RAM - 1 TB SSD
Vielleicht noch ein klitzekleiner Hinweis zu den Ausführungen, Kira Wolf: Aus Ihrer Darstellung geht nicht hervor, wie Sie korrigieren. Den Text nur übertippen reicht eigentlich nicht, damit Dragon daraus lernt. Für unbekannte Wörter ist zumindest das Buchstabierfenster erforderlich. Um Wörter aus dem Hintergrundvokabular zu aktivieren, würde ich fertiggestellte repräsentative Texte nachträglich analysieren lassen ("Von bestimmten Dokumenten lernen...").
Zitat von Kira Wolf im Beitrag #1Endungen stimmen auch manchmal nicht, aber das passiert im Vergleich selten. Ihn oder Ihm wird auch oft zu in und umgekehrt und hatte wird zu hätte. Ihr wird zu Hier.
Treffend beobachtet, kann ich nur bestätigen.Ich arbeite seit Version 8 bereits mit Dragon, sind also (deutlich) mehr als 10 Jahre, und manche Fehler sind von da an bis heute geblieben. Der größte Mangel von Dragon ist meines Erachtens die fehlende Kontextsensitivität. „Ihm" und „in" zu unterscheiden, würde unter Beachtung des Zusammenhangs bei der Spracherkennung keinerlei Probleme schaffen. Das fehlt Dragon, im Gegensatz zur Spracherkennung von Google, die in der Beziehung (leeren und lehren, er und eher usw.) Dragon inzwischen voraus ist. Ich hatte immer gehofft, dass irgendwann eine neue Dragon Version endlich auch die Umsetzung des Diktats aus dem inhaltlichen Zusammenhang heraus schafft, aber mittlerweile habe ich meine Zweifel, ob es überhaupt noch jemals eine neue lokale Dragon-Version gibt, und wenn, ob sie noch bezahlbar bleiben wird.
DNS 15.3 Professional Individual auf Windows 10 Home (64-bit) Plantronics PLT Savi W440 Intel (R) Core (TM) i7-7500 2,7 GHz 8 GB RAM 64 Bit
Harald: Meines Erachtens ist Dragon durchaus kontextsensitiv. Das ist ja der Witz der Hidden-Markov-Modelle und der Grund dafür, dass die Erkennungsrate deutlich steigt, wenn man längere Phrasen am Stück diktiert. Die Sensitivität ist aber eine solche, die ausschließlich an relativen Häufigkeiten von Wörtern im Verhältnis zu umstehenden Wörtern orientiert ist. Dragon kann den Sinn der Äußerungen nicht erfassen. Ich weiß gar nicht, ob ich mir wünschen soll, dass das bei Google anders ist.
Kann denn bei solchen Problemen auch erforderlich sein, einen schnelleren PC zu verwenden? Benutze einen i3, der genau den hier geschilderten Problemen nicht abhilft
Guten Morgen zusammen. Als Tipp hätte ich noch anzubieten, mit dem Regler "Schneller oder genauer" unter den weiteren Einstellungen der Optionen zu spielen. Tatsächlich erzielen einige meiner Kolleg*innen bessere Ergebnisse, je weiter der Regler auf "höchste Genauigkeit" steht ohne spürbare Einbußen bei der Schnelligkeit. Und natürlich auch die hier schon angesprochenen Korrekturen, also Markieren des falschen Textes, Aufrufen des Korrekturmenüs und dann die entsprechende Korrektur wählen.