Vous êtes sur la page 1sur 5

Segunda generación de la robótica

Presentado por:

Carlos Andrés Mendoza

Luis Alejandro Bolívar

Jesús David Vergara

Trabajo de informática

Presentado a:

Belsis Gonsalves

Institución educativa #14 sede paraíso

Maicao guajira

2017
Segunda Generación: Robots de Aprendizaje

La segunda etapa se desarrolla hasta los años 80s, este tipo de robots son un
poco más conscientes de su entorno que su previa generación, disponiendo de
sistemas de control de lazo cerrado en donde por medio de sensores adquieren
información de su entorno y obtienen la capacidad de actuar o adaptarse según
los datos analizados.

También pueden aprender y memorizar la secuencia de movimientos deseados


mediante el seguimiento de los movimientos de un operador humano.

Resumido: Los robots ahora cuentan con un sistema de retroalimentación que les
permite obtener más datos de su entorno y guardarlos en algún medio de
almacenamiento junto con las instrucciones.

Para conseguirlo, se empiezan ya a diseñar los productos a fabricar en función del


ensamblado por robots. A un robot le resulta muy difícil poner un tornillo, por
ejemplo, y estas piezas llevarán muy pocos tornillos, tendrán los puntos de fijación
o soldadura en el mismo sitio, aunque se trate de piezas distintas, etcétera.
Un sistema de visión artificial

En este mismo campo se aplicará el sistema de visión artificial que está


desarrollando el equipo dirigido por Luis Jáñez Escalada, catedrático de la facultad
de Psicología de la universidad Complutense y director del segundo proyecto.
"Este sistema pretende dotar de visión a los robots para operaciones de
ensamblado y también de control de calidad. Los robots actuales pueden pintar
chasis, pero no montar las piezas de un circuito

Esta información, en la que figuran datos como el centro de gravedad de la pieza y


su clasificación, es llevada a un robot de manipulación, que coge cada pieza en la
secuencia debida, la sitúa en una máquina herramienta para su mecanizado, en
un almacén para esperar su turno, o en un almacén especial en caso de piezas
defectuosas. Una vez mecanizadas, las piezas vuelven a la cadena para pasar a
una célula de ensamblado, donde robots de ensamblado (en fase de desarrollo)
las montan.

Todo este proceso está gobernado por un ordenador que dispone de programas
para la adquisición de datos de la cámara, procesamiento de imágenes,
segmentación, cálculo del tipo de piezas y de su orientación y posición, gestión
subóptima del sistema en su conjunto y comunicación con los robots.

La fase siguiente de este proceso es el objetivo del programa presentado a la


Fundación Ramón Areces. Se trata, explica Puente, de dotar al robot
ensamblador, en este caso el DISAM-E65 desarrollado en el mismo laboratorio, de
diversos sensores que le proporcionen grados de inteligencia. Entre estos
sensores está uno de esfuerzos, otros de tacto y proximidad, y sensores de visión,
que pueden ir acoplados al brazo manipulador o no. Como consecuencia, es
preciso modificar los sistemas originales de control y operativo del robot para
poder tratar en forma inteligente (por realimentación continua) la información
facilitada por los sensores

En la actualidad, los robots, en su mayor parte, no funcionan con este tipo de


realimentación, sino que lo hacen por lo que se ha de nominado un poco
incorrectamente aprendizaje, un método que ya resulta rudimentario. Al principio
de su puesta en funcionamiento para determinada tarea, el brazo del robot es
guiado manualmente a lo largo de la trayectoria que deberá seguir para realizar su
trabajo, y todos los puntos de esta trayectoria quedan almacenados en su
memoria, de forma que puede repetirla indefinidamente. Cuando, por ejemplo, dos
robots funcionan simultáneamente, una parte muy complicada de programar es la
exclusión de posibles colisiones entre los dos.

El proyecto sobre visión artificial dirigido por Luis Jáñez tiene un carácter muy
amplio y pretende desarrollar un sistema de visión artificial lo más inteligente
posible, en el que se incluirán procedimientos utilizados por el sistema visual
humano. En él colabora un grupo de psicólogos encuadrados en el departamento
de Psicología Matemática de la universidad Complutense, donde se siguen desde
hace varios años investigaciones sobre visión humana y procesamiento de
imágenes, y un grupo de ingenieros de la Escuela Técnica Superior de Ingenieros
de Telecomunicación de Madrid, encabezados por Darío Maravall. El proyecto
pretende en principio obtener un criterio espacial para determinar las regiones del
campo visual que contengan información relevante, y un criterio frecuencia para
diseñar algoritmos que relacionen a qué nivel de resolución se analizan las
regiones de interés preferencial.

Otra característica del sistema es conseguir un filtrado previo de la imagen, con


filtros que se diseñarán siguiendo las directrices de los sistemas de visión
humana. El procesamiento de las distintas bandas de frecuencia espacial será
independiente, con lo que se podrá analizar una imagen a diferentes niveles de
detalles, y estos niveles se podrán seleccionar según cada aplicación concreta.

El sistema permitirá la detección de un objeto a partir de la distribución angular de


energía en su espectro de Fourier y pretende conseguir información tridimensional
de la imagen que contempla el robot basados en los algoritmos del sistema de
visión humana para visión estereoscópica. Los responsables del proyecto señalan
que esta característica resulta ambiciosa y necesaria para aplicaciones
industriales, ya que hasta el momento el reconocimiento de formas que existe en
la robótica comercial es sólo bidimensional.

Otra característica del programa es que pretende utilizar un espacio de rasgos


muy general, lo que implica que este sistema de visión artificial podría ser utilizado
en aplicaciones muy diversas, superando las dificultades más comunes de los
sistemas de visión artificial actuales, que sólo son capaces de hacer un reducido
número de tareas en un entorno que admite pocas variaciones.

Vous aimerez peut-être aussi