Herramientas de usuario

Herramientas del sitio


Barra lateral

Traducciones de esta página:

Página principal

–> HACKATÓN DE E-TEXTILES

Análisis y comparativas

Documentación
esta sección no existe: documentacion
Eventos Guías Herramientas Información de interés Proyectos > Usuarios Varios Wiki Privado

No hay páginas en esta sección.


old admin

No hay páginas en esta sección.


proyectos:littletimmy

Pequeño Timmy

Es un robot que implementa reconocimiento facial y que permite interactuar con él con sólo acariciar su cabeza.

Para la carcasa del robot utilicé el diseño de un robot llamado boxty (https://www.thingiverse.com/thing:2002199) que se ajustaba practicamente a mis necesidades. Básicamente lo que hice fue modificar el grosor de la parte superior de la cabeza para poder añadirle el sensor capacitivo, crearle unos nuevos ojos, una abertura para colocar la cámara y cambiar el sistema de giro de la cabeza para adaptarlo a unos SG90. No es lo más recomendable, pero eran los servos que tenía a mano.

img_20171117_181907.jpg

Piezas imprimibles

Las modificaciones que le hice al diseño del boxty las puedes encontrar en:

https://www.thingiverse.com/thing:2655550

Componentes

Para este robot reutilicé diferentes componentes que tenía por casa:

  • Raspberry Pi 3
  • Pi Camera
  • Arduino Nano
  • Arduino Nano Shield
  • 2 Servos sg90
  • Buzzer
  • 2 Mini OLED 0,96“
  • Sensor tactil capacitivo

Código

Para el reconocimiento facial partí de un ejemplo que encontré que usaba opencv. Básicamente lo que hice fue modificarlo para que enviase la información por el puerto de serie a Arduino. Me encontré con algunos problemas entre el envío de informacion y la recepción en arduino, pero que solucioné con unos semáforos que controlaban cuando podía enviar o recibir informacion.

https://github.com/bhm93/littleTimmy

El resultado

Mi intención era añadir más juegos al robot, por ejemplo el de esconderte tapándote la cara y que el robot se alegrase en cuanto volvieses a aparecer. Pero por el poco tiempo que he tenido no he podido implementarlo, quizás para la siguiente OSHWDem. Respecto a la velocidad de proceso, el robot no termina de ir bien, es bastante lento a la hora de hacer el facetracking. Por las pruebas que pude hacer, el enviar cadenas de caracteres por el puerto de serie con arduino es un motivo por el cual se relantiza. Quizás lo más adecuado hubiese sido controlar los servos directamente desde la rasbperry, pero hubiese tenido que controlar el sensor tactil y demás cosas por python y mi dominio de ese lenguaje es prácticamente nulo.

Aquí dejo un video del robot en acción.

https://youtu.be/tgflzGFFgVI

proyectos/littletimmy.txt · Última modificación: 2018/01/24 22:07 (editor externo)