this post was submitted on 09 Aug 2024
3 points (100.0% liked)

Tischtennis 🏓

62 readers
2 users here now

Community für Austausch zum Thema “Tischtennis” 🏓

Wenn Ihr Nachrichten, Tipps oder Fragen zum Thema Tischtennis habt, teilt sie gerne hier.

…egal ob Indoor oder Outdoor, Profisport oder Freizeit, Materialberatung, Trainingstipps u.v.m.

Dies ist eine Lemmy-Community (Was ist Lemmy?) Wie Ihr von anderen Fediverse-Accounts aus teilnehmen könnt, ist auch hier beschrieben.

Bildquellen: Banner: „2023 DM Tischtennis - Sabine Winter“ Foto von Stefan Brending ist lizenziert unter CC BY-SA 3.0. Icon: Image by HeungSoon from Pixabay #fedi22 #Tischtennis #Sport

Ersatz fĂĽr @[email protected]

founded 4 months ago
MODERATORS
 

"Google Deepmind hat einen Roboter entwickelt, der beim Tischtennisspielen mit einem Anfänger mithalten können soll. Im Wettkampf erreichte der von Künstlicher Intelligenz (KI) gesteuerte Roboter die Leistung eines menschlichen Amateurs, erklärt Googles KI-Forschungseinheit. Menschen bräuchten jahrelanges Training, um im Tischtennis ein hohes Leistungsniveau zu erreichen.

Besondere Herausforderungen beim Tischtennis seien die Geschwindigkeit und die Hand-Auge-Koordination, so die Google-Forscher. Mit dem Roboter sei ein Schritt in die Richtung gelungen, dass Roboter bei physischen Aufgaben Geschwindigkeit und Leistung auf menschlichem Niveau erreichen. Der Roboter trat gegen 29 Spieler an, die Fähigkeiten zwischen Anfänger- und Turnierniveau mitbrachten. 13 der Matches gewann der Roboter. Die besten Spieler konnte er nicht besiegen. Dafür gewann er gegen alle Anfänger und mit 55 Prozent mehr als die Hälfte der Spiele gegen fortgeschrittene Spieler. Das zeige eine solide Leistung auf menschlichem Amateur-Niveau, erklärt das Forschungsteam in seinem Paper.

Hybrides Modell ermöglicht schnelle Koordination

Der Roboter ist demnach in der Lage, auch komplexe physische Aufgaben zu bewältigen. Tischtennis erfordert eine blitzschnelle Entscheidung und die Fähigkeit, sich dynamisch an das Spiel und den Gegner anzupassen. Der Roboter tut dies mittels einer Kombination aus Low-Level-Skill-Policies und einem High-Level-Strategie-Entscheider. Dank Ersteren ist der Roboter in der Lage, die spezifischen Tischtennis-Bewegungen wie Vor- oder Rückhandschläge und Aufschläge durchzuführen. Der zweite Teil analysiert das Spiel und passt sich an den Stil des Gegners an: Er entscheidet er darüber, welche der erstgenannten Techniken der Roboter in der jeweiligen Spielsituation einsetzt.

Eine Besonderheit sah das Forschungsteam vor allem im Training der Künstlichen Intelligenz. In einem hybriden Ansatz kombinierte es Verstärkungslernen (Reinforcement Learning) mit Nachahmungslernen (Imitation learning). Ersteres kommt für dynamische Steuerungsaufgaben zum Einsatz, etwa bei Fortbewegungen von Vierbeinern, und wird oft erst in der Simulation durchgeführt. Die Herausforderung ist, dass die Simulation nicht immer der Realität entspricht. Das soll die zweite Lernmethode aufheben: Das Nachahmungslernen orientiert sich an Beispielen, die die gewünschte Aufgabe gut lösen, was dann kopiert wird. Das schließt laut dem Paper des Forschungsteams die Lücke zwischen Simulation und Realität.

Verfolgung der Echtzeit-Spielstatistik

Der Roboter trat nach einem ersten Lernprozess mit wenigen Trainingsdaten aus menschlichen Spielen gegen einen menschlichen Gegner an. Mit jedem echten Match entstanden neue Daten, die wiederum in das Training einflossen. Der Roboter konnte seine eigene Leistung dadurch in mehreren Iterationen steigern. Allerdings war die KI vor allem in der Lage, sich an wechselnde Umweltbedingungen anzupassen – nicht aber an Menschen. Um Letzteres zu ermöglichen, verfolgten die Forscher in Echtzeit die Spielstatistiken, über die Stärken und Schwächen des Gegners und des Roboters deutlich wurden. Darüber konnte der Roboter sich mehreren wechselnden Gegnern besser anpassen.

Schwierigkeiten hat der Roboter bei ausgefeilteren Techniken. So sind besonders hoch oder schnell gespielte Bälle ein Problem. Das Forschungsteam vermutet die Ursache in der Latenz des Systems und fehlenden Daten. Auch das Rückhandspielen fällt dem Roboter eher schwer. Außerdem erkennt das System einen starken Spin des Balls nicht gut."

you are viewing a single comment's thread
view the rest of the comments
[–] Treczoks 3 points 3 months ago

Der mag zwar kein Weltmeister werden, aber als Trainingsgerät dürfte das Teil durchaus brauchbar sein.