KI-Hackathon: ELO Wettbewerb

In Anlehnung an Hackathons, Demo-Coder-Partys und Game-Jams wird ein KI-Wettbewerb ausgetragen. Teilnehmende haben in einem Zeitraum von zwei Wochen die Möglichkeit, praktisch anwendbares KI-Fachwissen auf spielerische Art und Weise zu erwerben. Sie entwickeln dabei eigene Spiele-KIs für Brettspiele, von denen aktuell ein großer Teil der Faszination moderner KI ausgeht (siehe Alpha Zero). Den Abschluss jeder Veranstaltung bildet ein Wettbewerb der eingereichten KIs, bei denen eine ELO-Zahl (orientiert am Schachverband FIDE) ermittelt und mit einem Zertifikat bescheinigt wird.

Zum Erlangen des notwendigen KI-Wissens werden den Teilnehmern Schulungsunterlagen bereitgestellt.

Die Screencasts geben zum einen Überblick über den Ablauf des Hackathons, zum anderen bieten sie detaillierte Beschreibungen von Implementierungsmöglichkeiten einer KI, insbesondere im Hinblick auf die angebotenen Brettspiele. Außerdem werden notwendiges Wissen zur Benutzung des Wettbewerbsframeworks sowie abschließend ein Exkurs zum Thema Monetarisierung behandelt.

Der Quellcode zu dem Hackathon ist über ein offenes Git-Repo erreichbar.

Wettbewerb und Basis-Strategien

Strategien 01
  •  Shannon A
  •  Evaluations Funktionen
  •  Umsetzung von Shannon A (Minimax & Negamax)

Video ansehen

Strategien 02
  •  Beschleunigungstechniken
  •  Shannon B
  •  Umsetzung von Shannon B
  •  Transposition-Tables & Zobrist Hashing

Video ansehen

Strategien 03
  • Brettspiel KIs
  • Disk Square Ansatz
  • Mobilitätsalgorithmen
  • Mustererkennung

Video ansehen

Framework und Umgebung
  •  Die Gameboard Klasse
  •  Die Elo Arena
  •  Beispiel: Random Decider
  •  Das Gui
  •  Abgabeformalitäten

Video ansehen

Monetarisierung von Videospielen
  • Motivation und Marktübersicht
  • Grundlagen zu Ökonomien, Spieleentwicklung und Glücksspielen
  • Spielerbilder, Motivation und Verhalten
  • Monetarisierungsmodelle
  • Dark Patterns
  • KI für Monetarisierung in Videospielen

Video ansehen

Weiterführende Strategien

Generelle Ideen Reinforcement Learning
  • Was ist Reinforcement Learning
  • Markov-Ketten
  • Episodic vs Continuous Task
  • Value, Q-Value, Advantage, Regret
  • Bellmann Gleichung
  • Dynamic Programming
  • On Policy vs Off Policy Learning
  • Exploration vs Exploitation Dilemma
  • K-arm bandit and UCB strategies

Video ansehen

PPO und SAC
  • PPO (Proximal Policy Optimization)
  • SAC (Soft Actor Critic)

Video ansehen

Alpha Zero
  • Historie / Übersicht
  • Monte Carlo Tree Search
  • Algorithmus Alpha Zero
  • Implementierung

Video ansehen

Prof. Dr. Christoph Lürig
Prof. Dr. Christoph Lürig
Professor FB Informatik

Kontakt

+49 651 8103-372

Standort

Schneidershof | Gebäude X | Raum 8
Fabian Fell
Beschäftigter FB Informatik

Standort

Schneidershof | Gebäude O | Raum 5
back-to-top nach oben