From ca0bebf889cf415f48a5f558155b6a75e4bc1705 Mon Sep 17 00:00:00 2001 From: Evgeniy Pak Date: Tue, 29 Dec 2020 12:05:45 +0500 Subject: [PATCH] [RU] translation of 10, 12 weeks fixes --- docs/_config.yml | 6 +++--- docs/ru/week10/10-1.md | 1 + docs/ru/week12/12-2.md | 2 +- docs/ru/week12/12-3.md | 2 +- 4 files changed, 6 insertions(+), 5 deletions(-) diff --git a/docs/_config.yml b/docs/_config.yml index c52c73f11..eb9f7e911 100644 --- a/docs/_config.yml +++ b/docs/_config.yml @@ -688,14 +688,14 @@ ru: - path: ru/week01/01-1.md - path: ru/week01/01-2.md - path: ru/week01/01-3.md + - path: ru/week10/10.md + sections: + - path: ru/week10/10-1.md - path: ru/week12/12.md sections: - path: ru/week12/12-1.md - path: ru/week12/12-2.md - path: ru/week12/12-3.md - - path: ru/week10/10.md - sections: - - path: ru/week10/10-1.md ################################## Vietnamese ################################## vi: diff --git a/docs/ru/week10/10-1.md b/docs/ru/week10/10-1.md index 9c6e5c16e..0ead6d7c6 100644 --- a/docs/ru/week10/10-1.md +++ b/docs/ru/week10/10-1.md @@ -1,4 +1,5 @@ --- +lang: ru lang-ref: ch.10-1 title: Самостоятельное обучение - Предварительные Задачи lecturer: Ishan Misra diff --git a/docs/ru/week12/12-2.md b/docs/ru/week12/12-2.md index 27e206918..f5be7e605 100644 --- a/docs/ru/week12/12-2.md +++ b/docs/ru/week12/12-2.md @@ -611,7 +611,7 @@ Moreover, BERT and RoBERTa achieve superhuman performance on SQUAD and Glue. The ### Дополнительные идеи из вопросов после лекции: -Какими способами можно измерить 'понимание языка’? КАк мы можем узнать, что эти модели действительно понимают язык? +Какими способами можно измерить 'понимание языка’? Как мы можем узнать, что эти модели действительно понимают язык? "Трофей не поместился в чемодан, поскольку он был очень большим”: Разрешить ссылку ‘оно’ в этом предложении сложно для машин. Люди хороши в этой задаче. Есть выборка данных, состоящая из подобных сложных примеров и люди достигают 95% точности на этой выборке. Компьютерные программы были способны достичь лишь около 60% до революции, совершённой трансформерами. Современные модели транфсормеры способны достигать больше 90% на этой выборке данных. Это повзоляет предположить, что эти модели не просто запоминают / эксплуатируют данные, но изучают концепции и объекты посредством статистических шаблонов в данных. diff --git a/docs/ru/week12/12-3.md b/docs/ru/week12/12-3.md index 3e95e9603..959ffdadc 100644 --- a/docs/ru/week12/12-3.md +++ b/docs/ru/week12/12-3.md @@ -61,7 +61,7 @@ $$ \lbrace\boldsymbol{x}_i\rbrace_{i=1}^t = \lbrace\boldsymbol{x}_1,\cdots,\boldsymbol{x}_t\rbrace $$ -гд каждый $\boldsymbol{x}_i$ есть $n$-мерный вектор. Поскольку в множестве есть $t$ элементов, каждый из которых принадлежит $\mathbb{R}^n$, мы можем представить множество как матрицу $\boldsymbol{X}\in\mathbb{R}^{n \times t}$. +где каждый $\boldsymbol{x}_i$ есть $n$-мерный вектор. Поскольку в множестве есть $t$ элементов, каждый из которых принадлежит $\mathbb{R}^n$, мы можем представить множество как матрицу $\boldsymbol{X}\in\mathbb{R}^{n \times t}$. При self-attention внутреннее представление $h$ является линейной комбинацией входов: