О продукте Команда профессионалов со всего мира разработала собственную архитектуру нейронной сети для предсказания результатов киберспортивных матчей. Разработанная архитектура опирается на идеи архитектуры Transformer, демонстрирующей выдающиеся результаты в задачах машинного перевода, задачах распознавания речи, компьютерном зрении и лежит в основе больших языковых моделей (LLM, Large Language Models). Базовая архитектура Encoder с блоками внимания (Scaled Dot-Products Attention, Multi-Head Attention) была адаптирована для предсказания результата киберспортивного матча на основе обучения векторных представлений киберспортсменов. |

