Utilizando API de reconhecimento facial, face-landmarks-detection, estou construindo este editor de textos que tem como finalidade, ajudar pessoas com dificuldade comunicação e locomoção.
Até o presente momento, estou utilizando os seguintes pontos:
algumas variaveis de configuração de sensibilidade, foram definidas de acordo com preferencias pessoais
- O ponto Nº 6, foi utilizado como ponteiro do mouse e seu cálculo ficou da seguinte forma:
top = (altura_da_tela / 2) - (altura_da_tela * (4 * (0.5 + ponto_6_y) * -1 * nivel_de_sensilibidade))
left = (largura_da_tela / 2) - (largura_da_tela * (4 * (0.5 + ponto_6_y) * -1 * nivel_de_sensilibidade))
obs: há um ponto central na tela e o usuário deve posicionar o ponto da face com este ponto para fazer a devida calibração.
- os pontos
0
e17
, são referentes aos lábios, siperiores e inferiores, e o cálculo para definir a abertura da boca, foi somente a distância emY
- Os pontos para a abertura e/ou fechamento dos olhos, segue a mesma lógica, já estão identificados, porém falta implementar o 'clique', que deverá ser da seguinte forma:
- dois olhos: - desce uma linha;
- olho direito - passa para a proxima coluna; e
- olho esquerdo - "clica" nos botões