... | ... | @@ -2,35 +2,72 @@ |
|
|
| :----------: | :------------------: | :------------------: | :------------------------------: | :--------------------------: | :------------------------: | :------------------: | :------------------: | :--------------------: | :------------------: | :----------------: | :----------------: |
|
|
|
|
|
|
<!--img src="logo/do/projeto.png" width="350" object-fit="cover"-->
|
|
|
<div align="center">
|
|
|
<img src="uploads/hooTechLogo.jpg" width="150">
|
|
|
</div>
|
|
|
|
|
|
# Bem vindo à Wiki do projeto <Nome do projeto>
|
|
|
# Bem vindo à Wiki do projeto HoorTech
|
|
|
|
|
|
**Justificativa do Projeto:** <Justificativa aqui>
|
|
|
## Termo de Abertura
|
|
|
|
|
|
**Objetivos do Projeto:** <Objetivos aqui>
|
|
|
**Justificativa do projeto**
|
|
|
|
|
|
**Justificativa do Projeto:**
|
|
|
Atualmente, a comunicação entre pessoas surdas e com baixa acuidade auditiva enfrenta barreiras significativas devido à falta de ferramentas eficientes para a tradução simultânea de Libras para o português. Embora existam algumas plataformas e extensões web, tanto do governo brasileiro quanto de empresas parceiras, que realizam a transformação de texto para Libras, não há registro de softwares capazes de realizar a tradução simultânea de Libras para texto. Esse déficit torna difícil a comunicação entre uma pessoa surda e indivíduos que não compreendem a Língua Brasileira de Sinais.
|
|
|
Adicionalmente, plataformas de reunião como Google Meet e Zoom não possuem nenhuma ferramenta que facilite a comunicação entre os dois grupos. Identificados esses problemas, surge o projeto HoorTech, que busca promover a inclusão social e a acessibilidade ao criar uma ferramenta capaz de identificar os sinais em Libras e transformá-los em texto simultaneamente, garantindo que pessoas surdas e mudas possam se comunicar de forma eficaz e sem barreiras linguísticas.
|
|
|
|
|
|
### _<a href="Super/foto/do_termo.pdf" target="_blank">Termo de abertura do projeto</a>_
|
|
|
|
|
|
**Objetivos do Projeto:**
|
|
|
|
|
|
Desenvolvimento de uma página web que utilize um modelo de Inteligência Artificial capaz de identificar e interpretar a Língua Brasileira de Sinais através da webcam do usuário, disponibilizando a tradução simultânea para os demais participantes da conversa.
|
|
|
|
|
|
**Descrição do Projeto em alto nível:**
|
|
|
- Visualização da câmera do usuário
|
|
|
- Display com texto traduzido simultaneamente
|
|
|
- Histórico de traduções da chamada
|
|
|
- Ajustes do tamanho do display (cor, fundo, opacidade)
|
|
|
- Notificação de erro na identificação dos sinais (iluminação, qualidade de vídeo)
|
|
|
**Não está no escopo:**
|
|
|
- Tradução e identificação de outras linguagens além das oficiais brasileiras (Libras, português)
|
|
|
- Armazenamento de dados (login, registro de usuário)
|
|
|
Tecnologia: Web
|
|
|
|
|
|
## Equipe
|
|
|
|
|
|
#### Stakeholders
|
|
|
|
|
|
- Cliente A
|
|
|
- Cliente B
|
|
|
- Eduardo de Bastiani
|
|
|
- Fabricio Medeiros
|
|
|
- Isadora Guerra
|
|
|
- João Pedro Salles
|
|
|
- Luís Silveira
|
|
|
- Thiago Ventura
|
|
|
|
|
|
#### Professor Orientador
|
|
|
|
|
|
- Dr° Marcelo Yamaguti
|
|
|
- Me. Dilnei Venturini
|
|
|
|
|
|
#### AGES I
|
|
|
- Luan Pacheco Lima
|
|
|
- Pedro Henrique Tonial
|
|
|
- Olivia Maite Araújo
|
|
|
- Arthur de Souza
|
|
|
- Luan Trein
|
|
|
- Raul de Souza
|
|
|
|
|
|
#### AGES II
|
|
|
- Bernado Alves
|
|
|
- Henrique Knack
|
|
|
- Lucas Del Pozzo
|
|
|
|
|
|
#### AGES III
|
|
|
- Lukas Rocha
|
|
|
- Antônio Vidal
|
|
|
- Flávia Webster
|
|
|
|
|
|
#### AGES IV
|
|
|
- Alesandro Borges de Souza
|
|
|
- Marcos Menezes
|
|
|
- Luiza Lencina
|
|
|
|
|
|
- [Aluninho da Silva Ages](https://tools.ages.pucrs.br/aluninho)
|
|
|
|
|
|
<img src="./resources/images/foto-do-time.jpeg" alt="Foto do time com stakeholders no dia 08/03/2024" width="500"> |
|
|
#### Foto da Equipe
|
|
|
<img src="uploads/time.jpeg" alt="Foto do time com stakeholders no dia 16/08/2024" width="500"> |