Vous êtes sur la page 1sur 13

Seguridad en TIC´s

U4-A1. Ensayo. Seguridad en red

Docente:
RICARDO FABRIZIO MARTINEZ VALENCIA

Equipo:

Castro Ramos Jesús Alexander 19320919


Palacios Salazar Cristofer 19321048
Rodríguez de Jesús José Manuel 19321078

Grupo y Horario:

IS2, 16 – 17 Hrs.

Acapulco, Gro., 08 de Enero de 2024


Contenido
Debemos de comprender que la seguridad está presente en todos los aspectos de
nuestra vida, por lo que es primordial el poder adaptarnos a usarla siempre, ahora
bien, hablando de telecomunicaciones, es donde debemos de tener en cuenta aún
más aspectos de la seguridad, ya que de ella dependen que se pueda contar con
el resguardo de información valiosa para una persona, empresa o país, que tenga
que estar bien protegida y fuera del alcance de otros usuarios de una red.

La seguridad en redes, tiene cinco pilares que la sustentan;

1. Proceso
2. Criptología
3. Control de acceso
4. Buenas practicas
5. Mecanismos

En el proceso, la información se podrá asegurar en la medida que se entienda


cómo se procesa en cada circunstancia en donde se encuentra la información que
cada usuario que se encuentra dentro de la red tiene la información en ese
momento.

Criptología es una disciplina que se basaba en técnicas para poder ocultar la


información o transformarla dependiendo el objetivo que nosotros queramos tener.

Control de acceso, se requiere que haya una restricción clara y se autorice solo a
usuarios con privilegio para acceder a la información, que cuenten con
credenciales que le permitan el acceso y bloquee a los usuarios que no se
identifiquen en la red.

Buenas prácticas, como cualquier otra actividad colectiva humana se requieren


políticas, normas y reglas, las cuales deben ser acatadas por todos los usuarios
que estén dentro de la red, para que esta no vaya a presentar algún fallo por un
factor humano, resultando así en daño a la información.
Mecanismos, tenemos diferentes tipos de mecanismos, como puede ser el
combate de infecciones de los virus, con los antivirus, también modelos de control
de acceso y equipos de seguridad dentro de la red, como lo es el firewall.

Así como también los activos de la información que son;

 Activos de información
 Software
 Activos físicos
 Personal
 Servicios
Es por ello que se desarrollan diversos protocolos de comunicación que son
esenciales en el uso de la seguridad y que deben de ponerse en practica para
poder tener un buen escudo para protegernos antes, durante y después de
cualquier amenaza que se pueda recibir en la red de comunicación.

Protocolos de comunicación

Podemos definir el concepto de protocolo de comunicación como un conjunto de


reglas que hace posible que distintos elementos que forman parte de un sistema
establezcan comunicaciones entre sí, y puedan realizar intercambio de
información.

Los protocolos de comunicación establecen los parámetros que determinan cuál


es la semántica y cuál es la sintaxis que deben emplearse en el proceso
comunicativo en cuestión de las reglas fijadas por el protocolo. Si nos centramos
en las computadoras el protocolo de comunicación determina cómo deben circular
los mensajes dentro de una computadora cuando la circulación de la información
se desarrolla en internet existen una serie de protocolos específicos que posibilitan
el intercambio. Ya que la comunicación en red está basada en el modelo OSI,
cada una de las 7 capas que lo compone cuenta con un conjunto de protocolos
específicos, a continuación, una breve explicación de las funciones que tiene cada
capa;
Capa física: Se tiene en cuenta el diseño de la red, los cables y conectores, el
manejo de tensiones eléctricas, etcétera. En sí, se trata del canal de comunicación
y cómo se transmite por éste.

Capa de enlace: Hablamos ya de una unidad mínima de datos llamadas “tramas”,


aquí se plantea la detección y corrección de errores que se pueden producir en la
comunicación, también se encarga de evitar que un receptor lento se sature en
caso de estar recibiendo demasiada información y además reparte la utilización de
la red cuando se trata de un medio compartido.

Capa de red: La unidad de información recibe el nombre de “paquetes”,


básicamente en esta capa se determina la mejor ruta para el envío de información
caminos cortos más rápidos y además se encarga de convertir y adaptar mensajes
que circulan por redes heterogéneas.

Capa de transporte: La función básica es la de tomar los datos que vienen del
nivel de sesión y pasárselos al de red asegurando que lleguen al nivel de sesión
del otro extremo.

Capa de sesión: Es donde se establecen esas conexiones o sesiones entre dos


extremos para el intercambio de datos y además aquí es donde están los servicios
de reanudación de conexiones ante posibles interrupciones o fallos.

Capa de presentación: Podríamos resumir sus funciones como controlador del


significado de la información que se transmite de manera que, aunque dos
equipos puedan representar una información de distinta forma los datos que se
transmiten por la red serán reconocibles por los dos.

Capa de aplicación: Es donde se produce el contacto directo con el programa y es


aquí donde se encuentran protocolos de intercambio de información como los de
correo electrónico o envío de archivos.

Debemos de tener en cuenta que para que las computadoras se puedan


comunicar entre sí han de utilizar los mismos protocolos de red, porque existen
diferentes protocolos de red, no todas las conexiones de datos entre sistemas de
computadoras siguen el mismo patrón, por ejemplo, no es lo mismo conectar dos
computadoras en una red doméstica que conectar una computadora a internet
formando parte de una unión enorme de computadoras y enviando datos a varios
destinatarios.

De igual forma las jerarquías de los participantes también juegan un papel


destacado en la comunicación, lo que origina que se den distintos protocolos de
red para cada una de las formas de comunicación, diferenciados entre sí en
función de los siguientes aspectos y de los 5 escenarios posibles de aplicación;

El 1, el número de participantes en la comunicación, los protocolos de red se


diferencian por el número de computadoras que pueden participar de la conexión
si los datos que se transmiten sólo tienen un destinatario esta transferencia se
conoce con el nombre de unicast, si el intercambio se produce entre dos o más
sistemas se habla entonces de una conexión multicast y si el envío de paquetes
de datos implica a todos los participantes se denomina broadcasting.

El 2, modo de transmisión de los datos, la dirección en la que circulan los datos


también permite diferenciar los protocolos de red entre sí los protocolos con
transferencias simples o unidireccional solo admiten la comunicación unilateral en
la cual una computadora funciona únicamente como emisor y el otro como
receptor en la transmisión semi dúplex ambas computadoras intercambian los
roles de emisor y receptor pero no simultáneamente y por último el modo dúplex
completo permite el envío de datos en ambas direcciones simultáneamente.

El 3, jerarquía de los participantes, ciertos tipos de conexión como el modelo


cliente servidor se basan en unas estructuras jerárquicas definidas, en este caso
concreto varios clientes pueden iniciar la conexión con un único servidor el cual
procesa las solicitudes, la forma opuesta de esta comunicación es la asimétrica,
en esta conexión todas las computadoras están en igualdad de condiciones y
pueden proporcionar servicios y utilizarlos.
El 4, sincronización de la comunicación, la transmisión de datos también se puede
diferenciar en función de si se sincronizan los bits entre emisor y receptor o no.

El 5, tipo de conexión, los protocolos de red se pueden dividir en los orientados a


la conexión y los que no lo están, los primeros requieren una conexión entre
emisor y receptor durante la transmisión e intentan garantizar que los paquetes
lleguen a su destino en un orden determinado y que en caso de entrega fallida se
envíen nuevamente, los segundos no establecen ni interrumpen una conexión por
lo que los paquetes que se envían contienen menos información adicional aunque
pueden llegar en una secuencia parcial al destinatario y no se vuelven a enviar en
caso de una transmisión fallida.

La seguridad en Internet

Internet se ha convertido en la herramienta que casi todo el mundo usa para el


intercambio de información, pero existen muchos riesgos al exponernos a usar
redes o sitios que no cuentan con certificados de seguridad que puedan garantizar
que no estamos en riesgo de que nuestra información pueda ser robada o dejar
vulnerable la computadora a cualquier amenaza.

Lo más básico que podemos hacer es tener activado un antivirus, que nos
mantendrá protegidos, pero lo hará con las amenazas que entren directamente a
la computadora, pero la mayoría de estos incluyen un firewall que se activa
simultáneamente, este es un programa o dispositivo que monitorea y filtra el tráfico
de datos de entrada y salida en una red de computadoras, a través del uso de
reglas de seguridad que especifican los criterios de la información que puede ser
procesada o denegada.

Los firewalls han existido desde finales de los 80 y comenzaron como filtros de
paquetes que eran redes configuradas para terminar su transferencia entre
equipos o computadoras, los firewalls de filtrado de paquetes todavía están en uso
actualmente y han recorrido un largo camino con el paso de las décadas. Un
firewall es el punto de conexión entre internet y una computadora o red de
computadoras, su funcionamiento se basa en controlar toda la información y el
tráfico pasar de una red a otra a través del router, si luego de un rápido análisis, el
firewall cree que los datos cumplen con las reglas de seguridad y protocolo
entonces se puede ingresar a la red privada, pero si no cumplen con los
estándares el firewall se encarga de bloquear el acceso a ese usuario o
información no confiable.

Desde sus inicios han pasado cinco generaciones; la generación número uno se
dio a finales de la década de los 80, los ataques de virus en computadoras
independientes afectaron a todas las empresas e impulsaron los primeros
productos de antivirus. La generación número 2 se dio a mediados de la década
de los 90, los ataques de internet afectaron a todos los negocios e impulsaron la
creación del firewall. La generación 3 se dio a principios de la década de los 2000,
explotando vulnerabilidades en aplicaciones que afectaron a la mayoría de las
empresas e impulsaron los protocolos de sistemas de prevención de intrusiones.
La generación número 4 se dio en 2010, que fue el aumento de ataques dirigidos
que afectaron a la mayoría de las empresas e impulsaron productos anti bots. La
generación número 5 se dio en 2017 y refiere a los mega ataques a gran escala
que utilizan herramientas de ataque avanzadas e impulsan soluciones avanzadas
de prevención de amenazas.

Con sistemas operativos modernos como Windows 10 contamos ya con un


antivirus y un firewall integrado, además la mayoría de routers que se venden
actualmente cuentan con su propio firewall, por lo que no deberíamos
preocuparnos por esto, pero si queremos buscar uno por nuestra cuenta debemos
recordar de unirlo a un buen antivirus para complementar una buena seguridad en
la red.

SSL / TLS

Cuando hablamos de navegar por internet, siempre creemos que el protocolo http
o https estará presente en todas las páginas que visitemos, pero esto pasa con los
usuarios sin tanto conocimiento sobre temas de seguridad en la red, pero si
investigamos un poco más, nos damos cuenta que detrás contamos con los
protocolos SSL y TLS, que permiten a las computadoras comunicarse de forma
segura por Internet, a través del establecimiento de una conexión cifrada, en la
cual los datos intercambiados son entendibles entre cliente y servidor.

Por eso debemos de conocer un poco más de las funciones que realizan estos
protocolos y el por qué son tan importantes a la hora de navegar por internet; son
protocolos criptográficos diseñados para proveer comunicación segura sobre una
red, el protocolo TLS busca asegurar la privacidad e integridad de los datos en la
comunicación entre dos o más aplicaciones. Pero antes de entender cómo
funcionan estos protocolos necesitamos saber qué es un certificado digital, este es
un documento que prueba la propiedad de una clave pública este incluye
información sobre la clave la identidad de su dueño y la firma digital de una
entidad que verifica los contenidos del certificado, esta entidad se llama autoridad
certificante, en TLS estos certificados siguen el estándar x509 y por lo tanto
utilizan PKI (Infraestructura de Clave Pública).

Cuando un cliente se conecta a un servidor con TLS comienza un handshake,


cliente y servidor negocian que algoritmos criptográficos van a usar, esto incluye
cifrado asimétrico, cifrado simétrico y funciones de hash, el servidor le provee su
certificado al cliente y con esto su clave pública, el cliente verifica la validez del
certificado antes de continuar, luego el cliente encripta un número aleatorio con la
clave pública del servidor y envía el resultado al mismo el cual sólo puede ser
desencriptado por el propio servidor, de esta forma ambas partes usan dicho
número aleatorio para generar una clave simétrica de sesión, una vez que llegan a
esta instancia esta clave simétrica acordada entre cliente y servidor se utiliza para
encriptar toda la comunicación del canal.

SSL presenta una serie de fallas que son motivo de su reemplazo por TSL, entre
ellas vulnerabilidades en el handshake contra un ataque Man In The Middle
“MITM” o el uso de claves idénticas para autenticación de mensajes y cifrado.
Actualmente el estándar TLS 1.3, varias versiones de TLS son utilizadas en
aplicaciones de email y voz sobre ip, pero su uso más popular es como capa de
seguridad en el protocolo https, por este motivo varios navegadores web poseen
por defecto las autoridades certificantes principales que validan la conexión segura
con un servidor web.

Autenticación y Autorización

Es importante saber que es cada cosa, por lo que vamos a comenzar por definir
cada una.

La autenticación es el proceso de identificar a los usuarios y garantizar que los


mismos sean quien dicen ser. Una prueba de autenticación puede ser la
contraseña, si el usuario conoce su nombre de usuario y contraseña, el sistema
entenderá que la identidad del usuario es válida, lo que le dará acceso a los
recursos deseados.

Una tendencia visible a métodos adicionales de autenticación para evitar


únicamente el uso de la contraseña, uno de estos métodos adicional son los OTP,
que son series alfanuméricas, que llegan por un mensaje SMS, correo electrónico
o si los generamos con una aplicación autenticadora.

El OTP se utiliza para la autenticación MFA, es decir multifactor, es un paso extra


que nos da una mayor seguridad a la hora de autenticar a un usuario.

La autorización es lo que define a que recursos del sistema el usuario identificado


podrá acceder, que haya logrado pasar la instancia de la autenticación no significa
que podrá utilizar el sistema por completo con todos los privilegios. De acuerdo a
una serie de reglas, normas y regulaciones propias de cada red interna, se
determina que el usuario ‘A’ tendrá acceso a los recursos ‘X’ e ‘Y’, sin embargo, el
usuario ‘B’ solo podrá acceder a los recursos ‘Z’, si es un usuario ‘Administrador’
tendría acceso a todos los recursos ‘X’, ‘Y’, ‘Z’.
Para la autenticación se requiere de un factor de autenticación con el cual se
pruebe que realmente la identidad que provee es verídica y que le pertenece. Los
tres tipos de factores son:

1. Conocimiento. Algo que solo la persona sepa, como una contraseña.


2. Pertenencia. Algo que la persona posea, como un teléfono.
3. Inherencia. Algo que sea parte de la persona, como sus datos biométricos
(huella dactilar, voz, etc.)
Mientras que la autorización verifica los permisos o privilegios que corresponden a
cada identidad.
Conclusiones

Jesús Alexander Castro Ramos

En conclusión, la seguridad de las Tecnologías de la Información y Comunicación


(TIC) en la red emerge como un pilar crítico en la era digital. La adopción de
medidas proactivas, como firewalls, cifrado de datos y protocolos de autenticación,
no solo constituye una defensa contra amenazas cibernéticas, sino que también
salvaguarda la confianza y la integridad de la información.

La concientización y formación continua del personal se erigen como elementos


esenciales, ya que la seguridad de las TIC no se limita únicamente a la
implementación de tecnologías avanzadas, sino que también depende de la
capacidad del capital humano para identificar y gestionar posibles riesgos.

En un panorama en constante evolución, donde las amenazas cibernéticas se


sofistican, la adaptabilidad se vuelve crucial. Una estrategia de seguridad dinámica
y flexible es fundamental para hacer frente a los desafíos emergentes y garantizar
la resiliencia de las operaciones empresariales en el entorno digital. En última
instancia, la seguridad de las TIC en la red no solo protege datos y sistemas, sino
que también fomenta la confianza de los usuarios y contribuye a la construcción
de un ecosistema digital seguro y sostenible.
Cristofer Palacios Salazar

La seguridad en red se ha convertido en un elemento crítico en el tejido mismo de


nuestra sociedad digital. En un entorno donde la interconexión y la comunicación
son esenciales, la protección de la información y la infraestructura contra
amenazas cibernéticas se ha vuelto imperativa. Las redes actúan como el pulso
vital de la era digital, facilitando la transmisión de datos, la colaboración y el
acceso a recursos compartidos, pero esta interconexión también introduce riesgos
significativos.

La seguridad en red abarca un amplio espectro de medidas, desde firewalls y


sistemas de detección de intrusiones hasta protocolos de cifrado y buenas
prácticas en la gestión de accesos. La continua evolución de las amenazas
cibernéticas y la sofisticación de los ataques exigen estrategias de seguridad cada
vez más robustas y flexibles. Además, la concientización y la educación de los
usuarios se han vuelto esenciales, ya que la vulnerabilidad de una red puede ser
exacerbada por comportamientos imprudentes o falta de conocimiento.

La seguridad en red no solo protege la integridad, confidencialidad y disponibilidad


de los datos, sino que también salvaguarda la confianza del usuario y la
reputación de las organizaciones.
José Manuel Rodríguez de Jesús

El saber acerca de la seguridad en redes, te permite conocer un poco más acerca


de como proteger tu información, si en algún momento se llega a trabajar en una
empresa que requiera los servicios de alguien quien proteja su red, debe tener en
cuenta que es una tarea difícil, ya que debe tener mucho conocimiento sobre el
tema, es bastante extenso aprenderse todo, pero enfocarse en un área resulta un
poco más tranquilo.

Podemos ver que todo arranca con el modelo OSI, a partir de ahí comienza todo a
tomar forma y comienzan a desarrollarse diferentes protocolos, que hoy en día son
indispensables, muchas veces al ser ignorantes en el tema, dejamos de lado y nos
olvidamos de nuestra propia seguridad, pensamos que solo a la empresas de
renombre les quieren robar la información, pero también estamos expuesto, es
indispensable contar con un antivirus que ayude a protegernos un poco de las
amenazas que podemos encontrar en la red, a su vez, estos incluyen ya un
firewall que ayuda aún más para poder blindarnos al estar navegando.

Sin duda que la seguridad sigue en constante evolución y cada vez va


perfeccionándose, aunque ningún sistema llega a ser seguro al cien por ciento,
pero cada vez la inteligencia artificial, está ayudando a que las amenazas sean
detectadas con mayor facilidad, pero siempre habrá un ingeniero que tenga que
programar y revisar tanto el hardware como el software que se utiliza en las redes
de computadoras.

Vous aimerez peut-être aussi