Vous êtes sur la page 1sur 19

UNIVERSIDAD CATOLICA DE SANTA MARIA

FACULTAD DE CIENCIAS E INGENIERIAS FISICAS Y FORMALES

PROGRAMA PROFESIONAL DE INGENIERIA ELECTRONICA

CONTROL AUTOMATICO II
CONGRESO UCSM INTERNACIONAL ELECTRONICA 2017
ALUMNO:
QUINTANILLA CHAVEZ NICKOLAE ARNALDO
Docente:
Ing. LUCY ANGELA DELGADO BARRA

2017
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

1.- PRESENTACION

Expositor:

Dr. ALDO CIPRIANO


Director de la Unidad Automatización y Control Industrial de DICTUC
Profesor Titular
Especialidad: Automatización y control industrial, con aplicación en minería.
Departamento de Ingeniería Eléctrica
Director, Dirección de Postgrado
Ponencia: Aplicaciones de tecnologías de automatización y control en mineria

1.1.- HISTORIA
Las tecnologías de Automatización, en versión analógica, se incorporaron en las faenas mineras a fines de los
años 60, como parte del programa de expansión de la gran minería del cobre. En la segunda mitad de los 70,
comenzó la instalación de sistemas de automatización y control empleando computadores digitales, siendo la
minería chilena precursora en la instalación de modernos sistemas de control distribuido (DCS).

Entre los avances actuales más significativos están los camiones autónomos, los LHD para minería subterránea
y los robots manipuladores para refinería y fundición. También son muy destacables los desarrollos en control
multivariable (MPC) de chancado, molienda, flotación, espesamiento y fundición.

En fechas más recientes corresponde mencionar los simuladores para entrenamiento de operadores (OTS) y los
avances en monitorización de signos vitales para mantenimiento predictivo. A mediano plazo, sin duda, la
automatización se masificará en las operaciones de las faenas que hoy están menos automatizadas, y el grado
de automatización seguirá aumentando gradualmente en las que ya lo están; pues estas tecnologías de
Automatización son clave para mejorar la calidad de vida de las personas y aumentar la productividad de las
empresas.

Las tecnologías de automatización, las que en su versión más amplia incluyen la robótica y el control
automático, tienen entre sus objetivos principales proporcionar seguridad a las personas, estabilizar los
procesos, reducir los costos, aumentar la producción y la productividad y mejorar la calidad de los productos
intermedios y finales. Esto es, en definitiva aumentar las utilidades de las empresas.

Si bien es cierto que estas tecnologías ofrecen muchas posibilidades, existen impedimentos para que en
ocasiones éstas se concreten. Es el caso de tecnologías que se incorporan en las faenas a pesar que no están
suficientemente maduras y probadas, originando fracasos que disminuyen la credibilidad.

Situaciones similares pueden ocurrir cuando son operadas por personal que no maneja adecuadamente sus
fundamentos, lo cual ocurre, por ejemplo, cuando la empresa reduce costos por la vía de contratar personal sin
formación o menos capacitado en estas tecnologías.

También es preocupante que muchas instituciones que forman profesionales para la minería aún no incorporan
estos contenidos como parte de las materias que enseñan a sus estudiantes. Asimismo, dado que en general la
minería no es un sector económico relevante en la mayoría de los países desarrollados, tampoco existe en ellos

2
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

interés por investigar en la disciplina y las aplicaciones en minería de tecnologías de automatización se


concentran en Australia, Sudáfrica, Canadá y algunos países latinoamericanos.

1.2.- AUTOMATIZACION Y PROCESOS EN LA MINERIA

Las bases del control de procesos son las sgtes:

Corresponde a la regulación o manipulación de variables que influyen en la conducta de un proceso, de forma


tal de obtener un producto en la cantidad y calidad deseada, de una manera eficiente.

Por lo cual, las tecnologías de Automatización (las que, en su acepción más amplia, incluyen la robótica y el
control automático), tienen entre sus objetivos principales proporcionar seguridad a las personas, estabilizar los
procesos, reducir los costos, aumentar la productividad y mejorar la calidad de los productos intermedios y
finales; esto es, en definitiva, aumentar las utilidades de las empresas.

Estas tecnologías permiten reducir la desviación estándar de los principales indicadores, posibilitando así una
producción más segura, convirtiéndolas en una alternativa eficaz para aumentar la productividad de manera
rápida, ya que la utilización de estrategias de control que incluyan optimización en tiempo real, permite fijar
objetivos técnicos y económicos que se reflejan en mayor producción y mejores indicadores de calidad. Con
ellas, además, es posible lograr una mayor eficiencia energética del proceso productivo, con ahorros que,
dependiendo de la aplicación, pueden llegar a ser significativos. Adicionalmente, permiten monitorizar equipos
en tiempo real para facilitar un diagnóstico temprano de fallas.

Si bien es cierto estas tecnologías ofrecen muchas potencialidades, existen impedimentos para que, en
ocasiones, se concreten. Es el caso de tecnologías que se incorporan en las faenas a pesar de no estar lo
suficientemente maduras y probadas, originando fracasos que disminuyen la credibilidad. Situaciones similares

3
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

pueden ocurrir cuando son operadas por personal que no maneja adecuadamente sus fundamentos, lo que ocurre,
por ejemplo, cuando la empresa reduce costos por la vía de contratar personal sin formación o menos capacitado
en estas tecnologías.

Otro aspecto a considerar es que estas tecnologías requieren inversiones de capital asociadas a equipamiento
generalmente sofisticado (componentes mecánicos, eléctricos y electrónicos, hardware y software, etc.) y
conocimiento experto, ámbito en el que centros de transferencia tecnológica (como el DICTUC) realizan un
aporte innegable.

1.3.- APLICACIONES

1.3.1. – CONTROL PREDICTIVO BASADO EN MODELO


El control predictivo basado en modelo es un método avanzado de control de procesos que ha sido utilizado
por la industria de procesos en plantas químicas y refinerías de petróleo desde la década de 1980. En años
recientes también ha sido utilizado en modelos de estabilidad para sistemas de potencia.1 Los controladores
para este tipo de control dependen de modelos dinámicos del proceso en cuestión, más a menudo modelos
lineales empíricos obtenidos por identificación de sistemas. La ventaja principal del MPC es el hecho de que
permite que la ranura de tiempo inmediata sea optimizada, mientras tiene en cuenta también las ranuras de
tiempo futuras. Esto se consigue optimizando un horizonte de tiempo finito, pero implementando
únicamente la ranura de tiempo actual. El MPC tiene la capacidad de anticipar acontecimientos futuros y
tomar acciones de control consecuentemente. Los controladores PID y LQR no poseen esta característica de
predicción. El MPC implementa casi universalmente un sistema de control digital, a pesar de que
actualmente se investiga sobre cómo lograr tiempos de respuesta más rápidos con circuitos análogos
especialmente diseñados

El MPC utiliza las medidas de planta instantáneas, el estado dinámico actual del proceso, del modelo, los
límites y las variables objetivo para calcular cambios futuros en las variables dependientes. Estos cambios
se calculan para mantener las variables dependientes cerca al objetivo mientras se cumplen las restricciones
en las variables tanto independientes como dependientes. El control MPC típicamente envía solo el primer

4
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

cambio en cada variable independiente a ser implementado, y repite el cálculo cuándo el siguiente cambio
es requerido

1.4.1. –VisioFroth, Metso Minerals


Visiofroth es un avanzado sistema de visión de espuma que, en conjunto con el software OCS, que analiza
las imágenes captadas, toman acciones automáticas sobre las principales variables de operación como son el
flujo de aire y nivel de espuma, para optimizar y estabilizar los parámetros de operación.

Estos sistemas de control avanzado pueden ser incorporados junto a las celdas, para mejorar su rendimiento,
ya que Metso cuenta con la experiencia y capacidad para proveer de equipos de proceso a cualquier planta
de flotación como las existentes en la minería, tanto de pequeña escala, mediana o especialmente de gran
escala.

El sistema de automatización permite monitorear y dirigir el sistema completo de chancado y solución desde
una sala de control. De esta manera, se han desarrollado soluciones estándar para garantizar seguridad,
disponibilidad y eficiencia energética.

Beneficios

 Reducción del tiempo de inactividad gracias a una tasa de utilización optimizada.


 Adaptado al sistema de lenguaje de su computadora.
 Además de reducir los costos de operación y mejorar las condiciones de trabajo, el sistema está
equipado con una interfaz de usuario informativa.

5
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

2.- PRESENTACION

Expositor:

Ing. Alvaro Talavera


Master of Science en Ingeniería Eléctrica
Doctor (Ph.D.) en ingeniería eléctrica en la Pontificia Universidad Católica de Río de Janeiro
(PUC-Rio) con especialidad en el área de procesamiento de señales, control y automatización.
Ponencia: La investigación en la ingeniería electrónica

2.1.-Machine Learning

Machine Learning es un conjunto de la técnica utilizada para el procesamiento de datos de


gran tamaño mediante el desarrollo de algoritmos y un conjunto de reglas para entregar los
resultados requeridos para el usuario. Es la técnica utilizada para desarrollar máquinas
automáticas sobre la base de la ejecución de algoritmos y un conjunto de reglas definidas.
En Machine Learning, los datos se alimentan y el algoritmo ejecuta un conjunto de reglas.
Por lo tanto, las técnicas de Machine Learning se pueden categorizar como instrucciones
que se ejecutan y aprenden automáticamente para producir resultados óptimos.
Se realiza sin ninguna interferencia humana. Convierte automáticamente los datos en
patrones y se adentra en el sistema para detectar automáticamente el problema de
producción.

2.2.- Deep Learning

El aprendizaje profundo es un tipo de algoritmo de red neuronal que toma metadatos como
entrada y procesa los datos a través de varias capas de la transformación no lineal de los
datos de entrada para calcular el resultado.
Este algoritmo tiene una característica única, es decir, la extracción automática de
características. Esto significa que este algoritmo capta automáticamente las características
relevantes requeridas para la solución del problema.
Esto reduce la carga del programador para seleccionar las funciones de forma explícita.
Esto se puede usar para resolver problemas de tipo supervisado, no supervisado o semi-
supervisado.
En Deep Learning Neural Network, cada capa oculta es responsable de entrenar el conjunto
único de características en función de la salida de la capa anterior. A medida que aumenta
la cantidad de capas ocultas, también aumenta la complejidad y la abstracción de los datos.
Forma una jerarquía desde las características de bajo nivel hasta las características de alto
nivel. Con esto, es posible que el algoritmo de aprendizaje profundo se pueda usar para
resolver problemas complejos más altos que consisten en un gran número de capas
transformacionales no lineales.

6
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

Clases de redes de aprendizaje profundo


• Aprendizaje profundo para el aprendizaje no supervisado: este tipo de aprendizaje
profundo se usa cuando no se proporcionan las etiquetas de la variable objetivo y se debe
calcular una correlación más alta a partir de unidades observadas para el análisis de
patrones.
• Redes Híbridas Profundas: en este enfoque, la meta puede lograrse ya sea mediante el
aprendizaje supervisado para realizar un análisis de patrones o mediante el uso de
aprendizaje no supervisado.

3.- PRESENTACION

7
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

Expositor:

Ing. Luis Manga


Master of Engineering especialidad energías renovables.
Ingeniero Electrónico especialidad control y automatización.
Ponencia: Soluciones de automatización para energía renovable

3.1.- Acondicionamiento de Señal Sensores de corriente

No se puede hablar de los sensores, como componentes electrónicos básicos, sin ver como se pueden
adaptar a un sistema de adquisición y control. Por lo que se tendrán que ver las nuevas tecnologías de
adaptación de estos sensores que como parte de una cadena de dispositivos, forman un sistema.
Estos adaptadores, como acondicionadores de señal, son los amplificadores operacionales en sus
diferentes estructuras de montaje, pasando por filtros o por procesadores analógicos, convirtiendo estas
señales de analógico a digital para posteriormente ser procesados los datos con un DSP o Microcontrolador y
actuando por medio de las salidas lógicas del procesador o por medio de un convertidor digital a analógico.

Un ejemplo de un sensor de señal de corriente, son los controladores que están alimentados por placas solares,
y controlan la cantidad de energía necesaria para la luz eléctrica en un lugar establecido previamente.

.Según la radiación solar local, se ajusta la cantidad y capacidad de los paneles solares y de las baterías. Para
calcular exactamente la mejor solución.

Cada paquete fotovoltaico sin conexión a la red contiene por lo menos:n panel solar (también llamado módulo
o placa solar) o más.

 un controlador para regular la carga y descarga,


 una batería o más,
 un inversor, si una alimentación de 220V es necesario,
 fusibles,
 una montura (sobre techo o postes),
 sistema de distribución de la electricidad.

8
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

3.2.- Controladores electrónicos en el ámbito de las energías renovables

Un controlador de carga, o regulador de carga es básicamente un regulador de voltaje y / o corriente para


mantener las baterías de sobrecargar. Se regula la tensión y la corriente que viene de los paneles solares que
van a la batería.
La mayoría de los paneles de 12 voltios emiten alrededor de 16 a 20 voltios, así que si no existiera una
regulación de las cargas, las baterías se dañarían por sobrecarga. La mayoría de las baterías necesitan
alrededor de 14 a 14,5 voltios para obtener cargas completas.

El controlador de carga regula esta salida de 16 a 20 voltios del panel hacia abajo a lo que la batería necesita
en ese momento. Este voltaje puede variar desde aproximadamente 10,5 a 14,6, dependiendo del estado de
carga de la batería, el tipo de batería, en qué modo el controlador está en, y la temperatura. (Ver información
completa sobre los voltajes de la batería en la sección de la batería).

3.3.- Controladores

 De 3 etapas y / o PWM tal Morningstar, Xantrex, Blue Sky, Steca, y muchos


otros. Estos son más o menos el estándar de la industria ahora, pero de vez en
cuando todavía ver algunos de los mayores derivación / relé tipos más, como en los
sistemas muy baratos que ofrecen las tiendas de descuento y comercializadores
masivos.

 Potencia máxima de seguimiento del punto de potencia (MPPT), tales como las
realizadas por Midnite Solar, Xantrex, Power Outback, Morningstar y otros. Se trata de

9
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

lo último en controladores, con precios acordes – pero con eficiencias en el rango de


94% a 98%, se puede ahorrar mucho dinero en sistemas más grandes, ya que
proporcionan energía 10 a 30% más a la batería. Para obtener más información,
consulte nuestro artículo sobre MPPT.
La mayoría de controladores vienen con algún tipo de indicador, ya sea un simple
LED, una serie de LED, o medidores digitales. Muchos de los más nuevos, como el
Poder Outback, Midnite Classic, Morningstar MPPT, y otros ahora han construido en
los interfaces de ordenador para el seguimiento y control. La más sencilla por lo
general tienen sólo un par de pequeñas lámparas LED, que muestran que usted tiene
el poder y que vas a encontrar algún tipo de cargo. La mayoría de los que tienen
medidores muestran el voltaje y la corriente de la llegada de los grupos especiales y el
voltaje de la batería. Algunas también muestran cuánta corriente está siendo retirado
de las terminales de carga.

3.4.- Aplicaciones Sistema Solar fotovoltaico conectado a red.

Un sistema fotovoltaico conectado a la red consiste básicamente en un generador fotovoltaico acoplado a un


inversor que opera en paralelo con la red eléctrica convencional. El concepto de inyección a la red tiene un
amplio margen de aplicaciones, desde pequeños sistemas de pocos kilowatt pico (kWp) de potencia instalada
hasta centrales de varios megawatt pico (MWp). En la figura 1 se muestra un diagrama de los componentes
principales de un sistema de conexión a la red.

El generador fotovoltaico capta la radiación solar y la transforma en energía eléctrica, que en lugar de ser
almacenada en baterías, como en los sistemas aislados e híbridos, se puede utilizar directamente en el
consumo o entregarla a la red eléctrica de distribución. Estas dos funciones las realiza un inversor de corriente
directa a corriente alterna, especialmente diseñado para esa aplicación.

10
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

El generador fotovoltaico o campo de paneles se puede integrar a techos o fachadas en las viviendas y
edificios, o en estructuras especiales. Es conveniente incluir, tras el inversor, un transformador para
aislamiento, un interruptor automático de desconexión para cuando la tensión de la red está fuera de márgenes
(vigilante de tensión) y el correspondiente contador, en serie con el habitual y en sentido inverso, para medir
la energía eléctrica inyectada en la red.

El carácter modular de la tecnología fotovoltaica permite, al contrario de la mayoría de las fuentes


convencionales, un costo unitario y una eficiencia independiente del tamaño o la escala de la instalación; por
ello los pequeños sistemas presentan un gran interés para la producción de energía descentralizada o
independencia del usuario o consumidor. Entre las principales ventajas de estos sistemas se pueden mencionar
las siguientes:

• Al generar en el mismo punto en que se produce el consumo, se eliminan las pérdidas en la transmisión (8-
12%) y distribución (16-22%) de la energía eléctrica.

• Se instalan fácil y rápidamente sobre cualquier edificio o área de parqueo bien expuesta al sol, sin
obstáculos ni edificios próximos que proyecten sombras, sin consumir más espacio del que ya ocupa el
edificio en el medio urbano.

• No producen contaminación ni efecto nocivo alguno.

• Son sistemas modulares: permiten inversiones de forma progresiva.

• Los costos de operación y mantenimiento son incomparablemente inferiores a los de las termoeléctricas

4.- PRESENTACION

Expositor:
Ing. Huber Nieto
Doctor Rer. Nat. Universidad de Humboldt en Berlín y el Deutschland Synchroton DESY
(2007), Alemania. Magíster en Física en la Pontificia Universidad Católica del Perú
Ponencia: Modelamiento de sistemas de control

11
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

4.1.-Modelamiento de control predictivo

4.1.1.-Formulacion del MPC

12
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

13
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

14
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

5.- PRESENTACION
Ing. Fredy Campos
MSc en Ingeniera de Sistemas y Título de Ingeniero Electrónico (UNI)
Estudios doctorales en Ing. de Sistemas
Directivo de la Sección Perú del IEEE y Presidente del Capítulo de Comunicaciones
(ComSoc)
Ponencia: Redes autonómicas y la inteligencia en redes

5.1.-Evolución del internet

Internet ha revolucionado el mundo. Hoy cumple 40 años y ha alcanzado más de 2,4 billones de
usuarios. Esta infografía desarrollada muestra cómo ha ido evolucionando internet desde 1969
que se realizó la primera conexión entre los ordenadores de Standford y UCLA, cuando también
nació ARPANET.

En 1971, Ray Tomlinson envió el primer email y aparece el primer virus Creeper. Dos años más
tarde, la palabra internet se usó por primera vez en una transmisión de control de protocolo. 1982
fue la fecha que marcó un antes y un después por el gran auge que supusieron los emoticonos y
que a día de hoy siguen teniendo. Nueve años después Tim Berners Lee, de la CERN crea la
primera página web.

Yahoo se funda en 1994 y justo al año siguiente Microsoft lanza Internet Explorer. Otro de los
términos revolucionarios, weblog aparece en 1997 usado por Jorn Barger.

Un año muy importante en la historia de internet es 1998 por dos motivos. En primer lugar nace
Google y el número de usuario de internet alcanza un millón

15
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

5.2.-IoT (Internet de las cosas)

El Internet de las cosas (IoT) es la red de objetos o "cosas" integradas con electrónica, software ,sensores y
conectividad de red, lo que les permite objetos para recolectar e intercambiar datos. IoT permite que los
objetos sean detectados y controlados remotamente a través de la infraestructura de red existente, creando
oportunidades para una integración más directa entre el mundo físico y sistemas basados en computadora, y
en eficiencia mejorada, precisión y beneficio económico.

El concepto de Internet de las cosas se convirtió primero popular en 1999, a través del Auto-ID Center en
MIT y publicaciones relacionadas de análisis de mercado. R
La identificación por radiofrecuencia (RFID) fue vista como un requisito previo para el IoT en ese punto. Si
todos los objetos y las personas en la vida diaria estaban equipadas con identificadores, las computadoras
podrían administrarlas e inventariarlas. Además
utilizando RFID, el etiquetado de las cosas se puede lograr a través de tecnologías tales como comunicación
de campo cercano, códigos de barras, Códigos QR, bluetooth y marca de agua digital.

El IoT se puede ver como una red gigantesca que consiste en redes de dispositivos y computadoras conectado
a través de una serie de tecnologías intermedias donde numerosas tecnologías como RFID, inalámbricos las
conexiones pueden actuar como habilitadores de esta conectividad.
 Etiquetado de cosas: trazabilidad y direccionabilidad de los elementos en tiempo real por RFID.
 Sentir cosas: los sensores actúan como dispositivos primarios para recopilar datos
del medio ambiente.
 Reducir las cosas: la miniaturización y la nanotecnología tiene
la capacidad de las cosas más pequeñas para interactuar y conectarse
dentro de las "cosas" o "dispositivos inteligentes".
 Cosas de pensamiento: inteligencia incorporada en dispositivos a través de
sensores ha formado la conexión de red a Internet. Eso puede hacer que las "cosas" se den cuenta del
control inteligente.

16
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

5.3.-Comunicación Maquina a Maquina

El concepto M2M (máquina a máquina) es, en síntesis, la capacidad de intercambiar datos entre dos máquinas
remotas, de forma que mediante este intercambio, es posible controlar y supervisar de forma automática
procesos en los que intervienen máquinas. El foco principal de aplicación de M2M se ubica por tanto, en los
entornos relacionados con la telemetría y/o el telecontrol.

Los constantes avances tecnológicos han configurado un escenario que facilita la integración de las máquinas
en los procesos empresariales, de forma que habilitan un nuevo contexto para su mejora y optimización.

Unido a esto, los operadores de telecomunicaciones han captado esta tendencia y han puesto a disposición del
mercado una oferta específica, tanto en canales de comunicaciones fijos como móviles, que contribuye a la
viabilidad técnica y económica de introducir las máquinas en los procesos empresariales.

TCP es desde sus inicios uno de los referentes nacionales en lo relativo a la definición, automatización,
optimización y mejora de los procesos de negocio, y por tanto, extiende esta oferta al ámbito del M2M con el
complemento de su experiencia y conocimiento tecnológico en la monitorización y telecontrol de
dispositivos.

Entre los principales escenarios donde se pueden aplicar estos servicios y soluciones cabe destacar:

Vending: Permite gestionar y optimizar la reposición de mercancía en base al consumo. Además también
permite telecontrolar diversos ajustes de las máquinas expendedoras.

Lectura de contadores: Este tipo de sistemas permite el ahorro de costes importantes a las empresas
suministradoras de servicio, tanto desde el punto de vista de reducir los desplazamientos de personal, como
para conocer la demanda energética en tiempo real, y en base a ella dimensionar sus necesidades de
distribución.

Medicina: Muchos enfermos pueden desarrollar una vida casi normal y enviar a su medico de forma regular y
automática los datos medidos en su propio domicilio evitando que tengan que desplazarse al hospital. En base
a la medición y análisis de estos datos se pueden generar alarmas y planificar citas para el seguimiento y
evolución del paciente.

Automoción: Aplicaciones que permiten la localización ubicación del vehículo. Estás aplicaciones han ido
más allá permitiendo interactuar con las funcionalidades del vehículo.

Control de acceso: Alarmas y envío de datos hacia sistemas de control con el fin de vigilar el acceso a
domicilios y empresas. En este tipo de entorno, el propio canal de comunicaciones sobre el que los sensores
envían la información es monitorizado y tratado como un elemento clave en la seguridad. Control y

supervisión del tráfico: Paneles informativos, semáforos, contadores de aforo de vehículos, sensores
meteorológicos, etc.

Gestión de flotas: No solo se trata de la geolocalización de los vehículos, sino que además es posible conocer
y monitorizar el estado del vehículo o de su carga en base a la agregación de sensores que midan presión,
temperatura, impactos, integridad, etc.

Medio ambiente: Estaciones meteorológicas, niveles de agua en pantanos, energía solar y eólica.

17
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

5.4.-Sistemas IPV6

El IPv6 incrementa el tamaño de la dirección IP de 32 bits a 128 bits para así soportar más niveles
en la jerarquía de direccionamiento y un número mucho mayor de nodos direccionables. El diseño
del protocolo agrega múltiples beneficios en seguridad, manejo de calidad de servicio, una mayor
capacidad de transmisión y mejora la facilidad de administración, entre otras cosas.

Mientras que IPv4 soporta 4,294,967,296 (232) direcciones que es poco menos de 4.3 billones,
IPv6 ofrece 3.4 x 1038 (2128) direcciones, un número similar a 6.67126144781401e+23
direcciones IP por cada metro cuadrado sobre la superficie de la Tierra. Adicionalmente, la
dirección IPv6 se diseñó para ser subdividida en dominios de enrutamiento jerárquico que reflejan
la topología del Internet actual.

5.4.1-Características de IPv6

El esquema de direcciones de 128 bits provee una gran cantidad de direcciones IP, con la
posibilidad de asignar direcciones únicas globales a nuevos dispositivos.

Los múltiples niveles de jerarquía permiten juntar rutas, promoviendo un enrutamiento eficiente y
escalable al Internet.

El proceso de autoconfiguración permite que los nodos de la red IPv6 configuren sus propias
direcciones IPv6, facilitando su uso.

La transición entre proveedores de IPv6 es transparente para los usuarios finales con el
mecanismo de renumerado.

18
Universidad Católica de Santa María SISTEMAS DIGITALES II –CONGRESO UCSM 2017

La difusión ARP es reemplazada por el uso de multicast en el link local.

El encabezado de IPv6 es más eficiente que el de IPv4: tiene menos campos y se elimina la suma
de verificación del encabezado.

Puede hacerse diferenciación de tráfico utilizando los campos del encabezado.

Las nuevas extensiones de encabezado reemplazan el campo Opciones de IPv4 y proveen mayor
flexibilidad.

IPv6 fue esbozado para manejar mecanismos de movilidad y seguridad de manera más eficiente
que el protocolo IPv4.

Se crearon varios mecanismos junto con el protocolo para tener una transición sin problemas de
las redes IPv4 a las IPv6.

5.4.2.- Jerarquía de direcciones – Agregación de prefijos de red

Un espacio mayor de direcciones de IPv6 permite mayores distribuciones de direcciones a las


organizaciones y a los proveedores de servicios de Internet (ISPs). Al tener una gran disponibilidad
de direcciones se posibilita el uso de un solo prefijo grande para toda la red de una organización y ,
por ende, el ISP puede sumar las rutas (agregar) de todos los prefijos de sus clientes en un solo
prefijo y anunciarlo al Internet IPv6.

Cuando un usuario final cambia su proveedor de IPv6, el cual le proveía de direccionamiento IPv6,
entonces también debe cambiar su prefijo de IPv6 para preservar su agregación global. Al mismo
tiempo, el cambiar de proveedor implica una renumeración de la red.

19

Vous aimerez peut-être aussi