Auf dieser Webseite werden SMIL-Techniken der Techniken für WCAG 2.0: Techniken und Fehler für WCAG 2.0 aufgelistet. Für Informationen zu den Techniken siehe Einführung in die Techniken für WCAG 2.0. Für eine Liste anderer Techniken lesen Sie das Inhaltsverzeichnis.
Ist immer dann anwendbar, wenn ein SMIL 1.0-Player zur Verfügung steht
Die Technik bezieht sich auf:
Der Zweck dieser Technik ist, es zu ermöglichen, dass es mehr Audiodeskriptionen gibt als in die Dialoglücken des audio-visuellen Materials passt.
Mit SMIL 1.0 gibt es keine einfache Möglichkeit, dies zu tun, aber man kann es tun, indem man die Audio- und Videodateien in eine Reihe von Dateien aufteilt, die nacheinander abgespielt werden. Zusätzliche Audiodeskriptionen werden dann gespielt, während das audio-visuelle Programm angehalten wird. Das letzte Bild des Videos wird angehalten, so dass es auf dem Bildschirm bleibt, während die Audiodatei abgespielt wird.
Der Effekt ist, dass es erscheint, als würde das Video von Anfang bis Ende laufen, würde aber an einigen Stellen angehalten, während eine längere Audiodeskription bereitgestellt wird. Dann läuft es, wenn die Audiodeskription beendet ist, automatisch weiter.
Um die erweiterten Audiodeskriptionen an- und auszuschalten, könnte man Skript benutzen, um zwischen zwei SMIL-Skripten hin- und herzuschalten, eines mit und eines ohne erweiterte Audiodeskriptions-Zeilen. Oder man könnte Skript benutzen, um die erweiterten Audiodeskriptions-Zeilen zu der SMIL-Datei hinzuzufügen oder daraus zu entfernen, so dass die Film-Clips einfach nur nacheinander ablaufen.
Wenn Scripting nicht verfügbar ist, dann könnten zwei Versionen des Videos bereitgestellt werden, eine mit und eine ohne erweiterte Audiodeskriptionen.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns:qt="http://www.apple.com/quicktime/resources/smilextensions"
xmlns="http://www.w3.org/TR/REC-smil" qt:time-slider="true">
<head>
<layout>
<root-layout background-color="black" height="266" width="320"/>
<region id="videoregion" background-color="black" top="26" left="0"
height="144" width="320"/>
</layout>
</head>
<body>
<par>
<seq>
<par>
<video src="video.rm" region="videoregion" clip-begin="0s" clip-end="5.4"
dur="8.7" fill="freeze" alt="videoalt"/>
<audio src="no1.wav" begin="5.4" alt="audio alt"/>
</par>
<par>
<video src="video.rm" region="videoregion" clip-begin="5.4" clip-end="24.1"
dur="20.3" fill="freeze" alt="videoalt"/>
<audio src="no2.wav" begin="18.7" alt="audio alt"/>
</par>
<par>
<video src="video.rm" region="videoregion" clip-begin="24.1" clip-end="29.6"
dur="7.7" fill="freeze" alt="videoalt"/>
<audio src="no3.wav" begin="5.5" alt="audio alt"/>
</par>
<par>
<video src="video.rm" region="videoregion" clip-begin="29.6" clip-end="34.5"
dur="5.7" fill="freeze" alt="videoalt"/>
<audio src="no4.wav" begin="4.9" alt="audio alt"/>
</par>
<par>
<video src="video.rm" region="videoregion" clip-begin="77.4" alt="video alt"/>
</par>
</seq>
</par>
</body>
</smil>
Das Markup ist in fünf <par>
-Segmente aufgeteilt. In jedem gibt es einen <video>
- und einen <audio>
-Tag (der letzte <par>
hat absichtlich keinen <audio>
-Tag). Die Konvention bei erweiterten Audiodeskriptionen ist, dass das Hauptmedium während der Deskription anhält. Um dies in SMIL 1.0 zu erreichen, setzt man einen "clip-begin
" und einen "clip-end
", die Anfang und Ende des Video-Clips vorschreiben und man legt eine Dauer für den Clip fest, die länger ist als durch "clip-begin
" und "clip-end
" definiert. Das fill="freeze"
hält das letzte Bild des Videos während der erweiterten Audiodeskription an. Der <audio>
-Ttag hat ein "begin
"-Attribut mit einem Wert, der gleich dem "clip-end
"-Wert des vorhergehenden <video>
-Tags ist.
Um die Werte für „clip-begin
,“ „clip-end
“ und „dur
“ zu bestimmen, finden Sie die Start- und Endzeit des Teils des beschriebenen Videos und ermitteln Sie die Gesamtlänge der erweiterten Audiodeskription. „Clip-begin
“ und „clip-end
“ definieren ihre eigenen Werte aber der „dur
“-Wert ist die Summe der Länge der erweiterten Beschreibung und des Clips, definiert durch „clip-begin
“ und „clip-end
“. Im ersten <par>
startet der Video-Clip bei 0 Sekunden, endet bei 5,4 Sekunden und die Länge der Beschreibung ist 3,3 Sekunden, also ist der „dur
“-Wert 5,4s + 3,3s = 8,7s.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Spielen Sie die Datei mit der erweiterten Audiodeskription ab
Spielen Sie die Datei mit der Audiodeskription ab
Prüfen Sie, ob das Video an Stellen anhält und die erweiterte Audiodeskription abspielt.
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Ist immer dann anwendbar, wenn ein SMIL 1.0-Player zur Verfügung steht
Die Technik bezieht sich auf:
Der Zweck dieser Technik ist, es zu ermöglichen, dass es mehr Audiodeskriptionen gibt als in die Dialoglücken des audio-visuellen Materials passt.
Mit SMIL 2.0 ist es möglich festzulegen, dass bestimmte Audiodateien zu bestimmten Zeiten abgespielt werden und dass das Programm eingefroren (angehalten) wird, während die Audiodatei abgespielt wird.
Der Effekt ist, dass es erscheint, als würde das Video von Anfang bis Ende laufen, würde aber an einigen Stellen angehalten, während eine längere Audiodeskription bereitgestellt wird. Dann läuft es, wenn die Audiodeskription beendet ist, automatisch weiter.
Um die erweiterten Audiodeskriptionen an- und auszuschalten, könnte man Skript benutzen, um zwischen zwei SMIL-Skripten hin- und herzuschalten, eines mit und eines ohne erweiterte Audiodeskriptions-Zeilen. Oder man könnte Skript benutzen, um die erweiterten Audiodeskriptions-Zeilen zu der SMIL-Datei hinzuzufügen oder daraus zu entfernen, so dass die Film-Clips einfach ungestört ablaufen.
Wenn Scripting nicht verfügbar ist, dann könnten zwei Versionen der SMIL-Datei bereitgestellt werden, eine mit und eine ohne erweiterte Audiodeskription.
Code-Beispiel:
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
<head>
<layout>
<root-layout backgroundColor="black" height="266" width="320"/>
<region id="video" backgroundColor="black" top="26" left="0"
height="144" width="320"/>
</layout>
</head>
<body>
<excl>
<priorityClass peers="pause">
<video src="movie.rm" region="video" title="video" alt="video" />
<audio src="desc1.rm" begin="12.85s" alt="Description 1" />
<audio src="desc2.rm" begin="33.71s" alt="Description 2" />
<audio src="desc3.rm" begin="42.65s" alt="Description 3" />
<audio src="desc4.rm" begin="59.80s" alt="Description 4" />
</priorityClass>
</excl>
</body>
</smil>
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Spielen Sie die Datei mit der erweiterten Audiodeskription ab
Prüfen Sie, ob das Video an Stellen anhält und die erweiterte Audiodeskription abspielt.
#2 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Ist immer dann anwendbar, wenn ein SMIL 1.0-Player zur Verfügung steht
Die Technik bezieht sich auf:
Das Ziel dieser Technik ist es, Menschen, die blind sind oder anderweitig Probleme damit haben, das Video in audio-visuellem Material zu sehen, die Möglichkeit zu geben, auf das Material zuzugreifen. Mit dieser Technik wird eine Beschreibung des Videos über eine Audiodeskription bereitgestellt, die in die Dialoglücken des audio-visuellen Materials passt.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns:qt="http://www.apple.com/quicktime/resources/smilextensions"
xmlns="http://www.w3.org/TR/REC-smil" qt:time-slider="true">
<head>
<layout>
<root-layout background-color="black" height="266" width="320"/>
<region id="videoregion" background-color="black" top="26" left="0"
height="144" width="320"/>
</layout>
</head>
<body>
<par>
<video dur="0:01:20.00" region="videoregion" src="salesdemo.mov"
alt="Sales Demo"/>
<audio dur="0:01:20.00" src="salesdemo_ad.mp3"
alt="Sales Demo Audio Description"/>
</par>
</body>
</smil>
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/TR/REC-smil">
<head>
<layout>
<root-layout background-color="black" height="266" width="320"/>
<region id="videoregion" background-color="black" top="26" left="0"
height="144" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mov" region="videoregion" title="Sales Demo"
alt="Sales Demo"/>
<audio src="salesdemo_ad.mp3" title="audio description"
alt="Sales Demo Audio Description"/>
</par>
</body>
</smil>
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Finden Sie die Methode zum Anschalten der Audiodeskription aus dem Inhalt/Player heraus (außer diese wird immer standardmäßig abgespielt)
Spielen Sie die Datei mit der Audiodeskription ab
Prüfen Sie, ob die Audiodeskription abgespielt wird
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Ist immer dann anwendbar, wenn ein SMIL 1.0-Player zur Verfügung steht
Die Technik bezieht sich auf:
Das Ziel dieser Technik ist es, Menschen, die blind sind oder anderweitig Probleme damit haben, das Video in audio-visuellem Material zu sehen, die Möglichkeit zu geben, auf das Material zuzugreifen. Mit dieser Technik wird eine Beschreibung des Videos über eine Audiodeskription bereitgestellt, die in die Dialoglücken des audio-visuellen Materials passt.
Code-Beispiel:
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
<head>
<layout>
<root-layout backgroundColor="black" height="266" width="320"/>
<region id="video" backgroundColor="black" top="26" left="0"
height="144" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<audio src="salesdemo_ad.mp3" begin="33.71s" title="audio description"
alt="Sales Demo Audio Description"/>
</par>
</body>
</smil>
Das Beispiel zeigt ein <par>
-Segment, das einen <audio>
- und einen <video>
-Tag enthält. Der Audio-Stream wird nicht sofort gestartet.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Finden Sie die Methode zum Anschalten der Audiodeskription aus dem Inhalt/Player heraus (außer diese wird immer standardmäßig abgespielt)
Spielen Sie die Datei mit der Audiodeskription ab
Prüfen Sie, ob die Audiodeskription abgespielt wird
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Gilt für SMIL 1.0
Die Technik bezieht sich auf:
Es gibt kein universelles Standard-Format zur Darstellung von Untertiteln in SMIL 1.0. Unterschiedliche Benutzeragenten unterstützen unterschiedliche Untertitel-Formate. Eine Datei in einem unterstützten Format muss als ‚textstream src argument‘ für den Untertitel-Text-Stream bereitgestellt werden.
QuickTime unterstützt QTText-Untertitel-Dateien. Real-basierte Player wie RealPlayer und GRiNS unterstützen RealText-Untertitel-Dateien. WindowsMedia unterstützt SAMI-Dateien, unterstützt aber nicht SMIL. Flash unterstützt keinen bestimmten Dateitypen, kann aber XML-basierte Untertitel-Dateien analysieren; tatsächlich soll die FLVPlayback-Komponenten-Unterstützung für SMIL Parameter wie movie/server url oder multi-bandwidth-Hinweise, die in einem <switch>-Tag festgelegt sind, entdecken.
Das Ziel dieser Technik ist es, Menschen, die taub sind oder anderweitig Probleme damit haben, den Dialog in audiovisuellen Materialien zu hören, eine Möglichkeit zu bieten, sich das Material anzusehen. Mit dieser Technik steht der gesamte Dialog und wichtige Geräusche in einem Text-Stream, der in einem Untertitel-Bereich angezeigt wird, zur Verfügung.
Mit SMIL 1.0 können separate Bereiche für das Video und die Untertitel definiert werden. Die Untertitel und das Video-Playback sind synchronisiert, wobei die Untertitel in einem Bereich des Bildschirms angezeigt werden während das dazugehörige Video in einem anderen Bereich angezeigt wird.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns:qt="http://www.apple.com/quicktime/resources/smilextensions"
xmlns="http://www.w3.org/TR/REC-smil" qt:time-slider="true">
<head>
<layout>
<root-layout width="320" height="300" background-color="black"/>
<region top="0" width="320" height="240" left="0" background-color="black"
id="videoregion"/>
<region top="240" width="320" height="60" left="0" background-color="black"
id="textregion"/>
</layout>
</head>
<body>
<par>
<video dur="0:01:20.00" region="videoregion" src="salesdemo.mov"
alt="Sales Demo"/>
<textstream dur="0:01:20.00" region="textregion" src="salesdemo_cc.txt"
alt="Sales Demo Captions"/>
</par>
</body>
</smil>
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/TR/REC-smil">
<head>
<layout>
<root-layout background-color="black" height="310" width="330"/>
<region id="video" background-color="black" top="5" left="5"
height="240" width="320"/>
<region id="captions" background-color="black" top="250"
height="60" left="5" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<textstream src="salesdemo_cc.rt" region="captions"
system-captions="on" title="captions"
alt="Sales Demo Captions"/>
</par>
</body>
</smil>
Das Beispiel zeigt ein <par>
-Segment, das ein <video>- und ein <code><![CDATA[<textstream>
-Tag enthält. Das system-captions-Attribut weist darauf hin, dass der Text-Stream angezeigt werden sollte, wenn die Untertiteln-Konfiguration im Player des Benutzers auf die Einstellung hinweist, dass Untertitel angezeigt werden sollen. Der <layout>
-Abschnitt definiert die Bereiche, die für Video und Untertitel benutzt werden.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/TR/REC-smil">
<head>
<layout>
<root-layout background-color="black" height="310" width="330"/>
<region id="video" background-color="black" top="5" left="5"
height="240" width="320"/>
<region id="captions" background-color="black" top="250"
height="60" left="5" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<text src="data:,This%20is%20inline%20text." region="captions" begin="0s"
dur="3" alt="Sales Demo Captions">
<param name="charset" value="iso-8859-1"/>
<param name="fontFace" value="System"/>
<param name="fontColor" value="yellow"/>
<param name="backgroundColor" value="blue"/>
</text>
</par>
</body>
</smil>
Dieses Beispiel zeigt ein <text>
-Element, das synchronisierte Text-Streams innerhalb der SMIL-Datei enthält.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Aktivierte Untertitel-Einstellung im Player, falls vorhanden
Spielen Sie die Datei mit Untertiteln
Prüfen Sie, ob die Untertitel angezeigt werden
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Gilt für SMIL 2.0
Die Technik bezieht sich auf:
Nur RealPlayer unterstützt SMIL 2.0.
Das Ziel dieser Technik ist es, Menschen, die taub sind oder anderweitig Probleme damit haben, den Dialog in audiovisuellen Materialien zu hören, eine Möglichkeit zu bieten, sich das Material anzusehen. Mit dieser Technik steht der gesamte Dialog und wichtige Geräusche in einem Text-Stream, der in einem Untertitel-Bereich angezeigt wird, zur Verfügung.
Mit SMIL 2.0 können separate Bereiche für das Video und die Untertitel definiert werden. Die Untertitel und das Video-Playback sind synchronisiert, wobei die Untertitel in einem Bereich des Bildschirms angezeigt werden und das dazugehörige Video in einem anderen Bereich.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
<head>
<layout>
<root-layout backgroundColor="black" height="310" width="330"/>
<region id="video" backgroundColor="black" top="5" left="5"
height="240" width="320"/>
<region id="captions" backgroundColor="black" top="250"
height="60" left="5" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<textstream src="salesdemo_cc.rt" region="captions" systemCaptions="on"
title="captions" alt="Sales Demo Captions"/>
</par>
</body>
</smil>
Dieses Beispiel zeigt ein <par>
-Segment, das ein <video>
- und ein <textstream>
-Tag enthält. Das systemCaptions-Attribut weist darauf hin, dass der Text-Stream angezeigt werden sollte, wenn die Untertiteln-Konfiguration im Player des Benutzers auf die Einstellung hinweist, dass Untertitel angezeigt werden sollen. Der <layout>
-Abschnitt definiert die Bereiche, die für Video und Untertitel benutzt werden.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
<head>
<layout>
<root-layout backgroundColor="black" height="310" width="330"/>
<region id="video" backgroundColor="black" top="5" left="5"
height="240" width="320"/>
<region id="captions" backgroundColor="black" top="250"
height="60" left="5" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<text src="data:,This%20is%20inline%20text." region="captions"
begin="0s" dur="3">
<param name="charset" value="iso-8859-1"/>
<param name="fontFace" value="System"/>
<param name="fontColor" value="yellow"/>
<param name="backgroundColor" value="blue"/>
</text>
<text src="data:,This%20is%20a%20second%20text."
region="captions" begin="3s" dur="3">
<param name="charset" value="iso-8859-1"/>
<param name="fontFace" value="System"/>
<param name="fontColor" value="yellow"/>
<param name="backgroundColor" value="blue"/>
</text>
</par>
</body>
</smil>
Dieses Beispiel zeigt ein <text>
-Element, das synchronisierte Text-Streams innerhalb der SMIL-Datei enthält.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Aktivierte Untertitel-Einstellung im Player, falls vorhanden
Spielen Sie die Datei mit Untertiteln
Prüfen Sie, ob die Untertitel angezeigt werden
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
Ist immer dann anwendbar, wenn ein SMIL 1.0-Player zur Verfügung steht
Die Technik bezieht sich auf:
Das Ziel dieser Technik ist es, Menschen, die taub sind oder anderweitig Probleme damit haben, den Dialog in audiovisuellen Materialien zu hören, eine Möglichkeit zu bieten, sich das Material anzusehen. Mit dieser Technik steht der gesamte Dialog und wichtige Geräusche in einem Gebärdensprach-Video, das in einem Untertitel-Bereich angezeigt wird, zur Verfügung.
Mit SMIL 1.0 können separate Bereiche für die zwei Videos definiert werden. Die zwei Video-Playbacks werden synchronisiert, wobei das Video mit dem Inhalt in einem Bereich des Bildschirms angezeigt wird, während das dazugehörige Gebärdensprach-Video in einem anderen Bereich angezeigt wird.
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns:qt="http://www.apple.com/quicktime/resources/smilextensions"
xmlns="http://www.w3.org/TR/REC-smil" qt:time-slider="true">
<head>
<layout>
<root-layout width="320" height="300" background-color="black"/>
<region top="0" width="320" height="240" left="0" background-color="black"
id="videoregion"/>
<region top="240" width="320" height="60" left="0" background-color="black"
id="signingregion"/>
</layout>
</head>
<body>
<par>
<video dur="0:01:20.00" region="videoregion" src="salesdemo.mov"
alt="Sales Demo"/>
<video dur="0:01:20.00" region="signingregion" system-captions="on"
src="salesdemo_si.mov" alt="Sales Demo Sign Language Interpretation"/>
</par>
</body>
</smil>
Code-Beispiel:
<?xml version="1.0" encoding="UTF-8"?>
<smil xmlns="http://www.w3.org/TR/REC-smil">
<head>
<layout>
<root-layout background-color="black" height="310" width="330"/>
<region top="0" width="320" height="240" left="0" background-color="black"
id="videoregion"/>
<region top="240" width="320" height="60" left="0" background-color="black"
id="signingregion"/>
</layout>
</head>
<body>
<par>
<video dur="0:01:20.00" region="videoregion" src="salesdemo.mov"
alt="Sales Demo"/>
<video dur="0:01:20.00" region="signingregion" system-captions="on"
src="salesdemo_si.mov" alt="Sales Demo Sign Language Interpretation"/>
</par>
</body>
</smil>
Dieses Beispiel zeigt ein <par>
-Segment, das zwei <video>
-Tags enthält. Das system-captions-Attribut weist darauf hin, dass das Gebärdensprachvideo angezeigt werden sollte, wenn die Untertiteln-Konfiguration im Player des Benutzers auf die Einstellung hinweist, dass Untertitel angezeigt werden sollen. Der <layout>
-Abschnitt definiert die Bereiche, die für das Hauptvideo und das Gebärdensprachvideo benutzt werden.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Aktivieren Sie das Steuerelement im Inhalt oder im Player, um die Übersetzung in die Gebärdensprache anzuschalten (außer sie wird immer angezeigt)
Spielen Sie die Datei mit der Übersetzung in die Gebärdensprache
Prüfen Sie ob die Übersetzung in die Gebärdensprache angezeigt wird
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.
SMIL 2.0
Die Technik bezieht sich auf:
Das Ziel dieser Technik ist es, Menschen, die taub sind oder anderweitig Probleme damit haben, den Dialog in audiovisuellen Materialien zu hören, eine Möglichkeit zu bieten, sich das Material anzusehen. Mit dieser Technik steht der gesamte Dialog und wichtige Geräusche in einem Gebärdensprach-Video, das in einem Untertitel-Bereich angezeigt wird, zur Verfügung.
Mit SMIL 2.0 können separate Bereiche für die zwei Videos definiert werden. Die zwei Video-Playbacks werden synchronisiert, wobei das Video mit dem Inhalt in einem Bereich des Bildschirms angezeigt wird, während das dazugehörige Gebärdensprach-Video in einem anderen Bereich angezeigt wird.
Code-Beispiel:
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
<head>
<layout>
<root-layout backgroundColor="black" height="310" width="330"/>
<region id="video" backgroundColor="black" top="5" left="5"
height="240" width="320"/>
<region id="signing" backgroundColor="black" top="250"
height="60" left="5" width="320"/>
</layout>
</head>
<body>
<par>
<video src="salesdemo.mpg" region="video" title="Sales Demo"
alt="Sales Demo"/>
<video src="salesdemo_signing.mpg"
region="signing" systemCaptions="on"
title="sign language interpretation"
alt="Sales Demo Sign Language Interpretation"/>
</par>
</body>
</smil>
Dieses Beispiel zeigt ein <par>
-Segment, das zwei <video>
-Tags enthält. Das systemCaptions-Attribut weist darauf hin, dass das Gebärdensprachvideo angezeigt werden sollte, wenn die Untertiteln-Konfiguration im Player des Benutzers auf die Einstellung hinweist, dass Untertitel angezeigt werden sollen. Der <layout>
-Abschnitt definiert die Bereiche, die für das Hauptvideo und das Gebärdensprachvideo benutzt werden.
Ressourcen sind nur zu Informationszwecken und keine offizielle Empfehlung.
Aktivieren Sie das Steuerelement im Inhalt oder im Player, um die Übersetzung in die Gebärdensprache anzuschalten (außer sie wird immer angezeigt)
Spielen Sie die Datei mit der Übersetzung in die Gebärdensprache
Prüfen Sie ob die Übersetzung in die Gebärdensprache angezeigt wird
#3 ist wahr.
Wenn dies eine ausreichende Technik für ein Erfolgskriterium ist, dann bedeutet das Scheitern an diesem Testverfahren nicht zwangsläufig, dass das Erfolgskriterium nicht auf irgendeine andere Art und Weise erfüllt wurde, sondern nur, diese Technik nicht erfolgreich implementiert wurde und nicht benutzt werden kann, um die Konformität zu erklären.