Skip to content

Commit

Permalink
Summary
Browse files Browse the repository at this point in the history
  • Loading branch information
DmitryRyumin committed Jan 3, 2023
1 parent 0da77fa commit bc7ed06
Show file tree
Hide file tree
Showing 2 changed files with 30 additions and 7 deletions.
17 changes: 15 additions & 2 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -32,9 +32,22 @@

The AIA and VIA algorithms implement the functions of strong artificial intelligence (AI) in terms of complexing acoustic and visual features built on different principles (expert and neural network), i.e. these algorithms implement the approaches of composite (hybrid) AI. The necessary pre-processing is carried out in the algorithms audio and video information, the calculation of visual and acoustic features and the issuance of prediction personality traits based on them.

The MF algorithm is a link between two information analysis algorithms (AIA and VIA). This algorithm performs a weighted neural network combination of prediction personality traits obtained using the AAI and AVI algorithms.
The MF algorithm is a link between two information analysis algorithms (AIA and VIA). This algorithm performs a weighted neural network combination of prediction personality traits obtained using the AIA and VIA algorithms.

In addition to the main task - multimodal personality traits assessment, the features implemented in **[OCEANAI](https://github.com/DmitryRyumin/oceanai)** features will allow researchers to solve other problems of analyzing human behavior, for example, recognizing his affective states.
In addition to the main task - unimodal and multimodal personality traits assessment, the features implemented in **[OCEANAI](https://github.com/DmitryRyumin/oceanai)** will allow researchers to solve other problems of analyzing human behavior, for example, recognizing his affective states.

To install the library, you should refer to the **[Installation and Update](https://oceanai.readthedocs.io/en/latest/user_guide/installation.html#id2)**.

To work with audio information, you should refer to the **[Audio information processing](https://oceanai.readthedocs.io/en/latest/user_guide/samples/audio.html)**.

To work with video information, you should refer to the **[Video information processing](https://oceanai.readthedocs.io/en/latest/user_guide/samples/video.html)**.

To work with audio-visual information, you should refer to the **[Multimodal information processing](https://oceanai.readthedocs.io/en/latest/user_guide/samples/multimodal.html)**.

The library solves practical tasks:

1. **[Ranking of potential candidates by professional responsibilities](https://oceanai.readthedocs.io/en/latest/user_guide/notebooks/Pipeline_practical_task_1.html)**.
2. **[Predicting consumer preferences for industrial goods](https://oceanai.readthedocs.io/en/latest/user_guide/notebooks/Pipeline_practical_task_2.html)**.

**[OCEANAI](https://github.com/DmitryRyumin/oceanai)** uses the latest open-source libraries for audio and video processing: **[librosa](https://librosa.org/)**, **[openSMILE](https://audeering.github.io/opensmile-python/)**, **[openCV](https://pypi.org/project/opencv-python/)**, **[mediapipe](https://google.github.io/mediapipe/getting_started/python)**.

Expand Down
20 changes: 15 additions & 5 deletions README_RU.md
Original file line number Diff line number Diff line change
Expand Up @@ -33,12 +33,22 @@
Алгоритм МОИ является связующим звеном двух алгоритмов анализа информации (ААИ и АВИ). Данный алгоритм выполняет
взвешенное нейросетевое объединение гипотез предсказаний полученных с помощью алгоритмов ААИ и АВИ.

Помимо основной задачи - мультимодального оценивания персональных качеств личности человека, реализованные в
**[OCEANAI](https://github.com/DmitryRyumin/oceanai)** признаки позволят исследователям решать другие задачи анализа поведения
человека, например распознавание его аффективных состояний.
Помимо основной задачи - мультимодального оценивания персональных качеств личности человека, реализованные в **[OCEANAI](https://github.com/DmitryRyumin/oceanai)** признаки позволят исследователям решать другие задачи анализа поведения человека, например распознавание его аффективных состояний.

**[OCEANAI](https://github.com/DmitryRyumin/oceanai)** использует самые актуальные библиотеки с открытым исходным кодом
для обработки аудио и видеоинформации: **[librosa](https://librosa.org/)**,
Для установки библиотеки необходимо обратиться к **[Установка и обновление](https://oceanai.readthedocs.io/ru/latest/user_guide/installation.html)**.

Для работы со аудиоинформацией следует обратиться к **[Аудиообработка информации](https://oceanai.readthedocs.io/ru/latest/user_guide/samples/audio.html)**.

Для работы со видеооинформацией следует обратиться к **[Видеообработка информации](https://oceanai.readthedocs.io/ru/latest/user_guide/samples/video.html)**.

Для работы с аудиовизуальной информацией следует обращаться к **[Мультимодальная обработка информации](https://oceanai.readthedocs.io/ru/latest/user_guide/samples/multimodal.html)**.

Библиотека решает практические задачи:

1. **[Ранжирование потенциальных кандидатов по профессиональным обязанностям](https://oceanai.readthedocs.io/ru/latest/user_guide/notebooks/Pipeline_practical_task_1.html)**.
2. **[Прогнозирование потребительских предпочтений на промышленные товары](https://oceanai.readthedocs.io/ru/latest/user_guide/notebooks/Pipeline_practical_task_2.html)**.

**[OCEANAI](https://github.com/DmitryRyumin/oceanai)** использует самые актуальные библиотеки с открытым исходным кодом для обработки аудио и видеоинформации: **[librosa](https://librosa.org/)**,
**[openSMILE](https://audeering.github.io/opensmile-python/)**,
**[openCV](https://pypi.org/project/opencv-python/)**,
**[mediapipe](https://google.github.io/mediapipe/getting_started/python)**.
Expand Down

0 comments on commit bc7ed06

Please sign in to comment.