Vous êtes sur la page 1sur 19

INSTITUTO DE EDUCACIÓN SUPERIOR

TECNOLÓGICO PÚBLICO “CARLOS SALAZAR


ROMERO”

ESPECIALIDAD: COMPUTACIÓN E INFORMÁTICA


UNIDAD DIDÁCTICA:
SEGURIDAD INFORMÁTICA
TEMA:
LA SEGURIDAD EN LAS REDES INFORMÁTICAS Y
LA CULTURA HACKER
ESTUDIANTE:
TORRES ZEVALLOS MARIA MERCEDES
DOCENTE:
FABIAN GUERRERO MEDINA
TURNO:
DIURNO

NUEVO CHIMBOTE- PERÚ


2019
LA SEGURIDAD EN LAS REDES INFORMÁTICAS

INTRODUCCIÓN

Hoy en día la tecnología y los sistemas informáticos se han vuelto algo esencial para todos los seres humanos,
facilitando sus misiones o vidas cotidianas, sin estos no estuviéramos como estamos hoy en día de avanzados, pero aun
así falta mucho más por avanzar. Gracias a lo importante que se han convertido los sistemas informáticos, han surgido
personas que aprovechan sus conocimientos informáticos para causar daño, pérdidas, y hasta violaciones informáticas,
aprovechando las vulnerabilidades de los sistemas informáticos e ignorancia que

tienen los que les dan uso a estos.

A lo largo del avance de los sistemas informáticos, por dichas acciones se han venido realizando pautas e informaciones
acerca de los ataques informáticos para las personas y los más grandes también, las empresas, del como estos ataques
pueden ser llevados a cabo, ¿Qué consecuencias pueden dejar?, y por supuesto métodos y consejos que evitan que
caigamos y que caigan las empresas en estos.

Desde la antigüedad, la información se ha convertido en la materia prima del conocimiento. Hoy en día no se concibe una
organización institucional sin un adecuado tratamiento, tanto de la información externa que necesita para su inserción en
el mercado, como de la información interna que necesite manejar para el mejor control y adecuado uso de todos sus
propios recursos, con vistas a potenciarlos de forma más efectiva y eficiente. El uso adecuado de la información implica
disponer de ella en el lugar y en el momento preciso. Para esto, los sistemas de búsqueda y recuperación de información
constituyen una herramienta indispensable en el ejercicio de cualquier actividad de la vida moderna. Con el acelerado
desarrollo tecnológico de las últimas décadas, las actuales formas de acceder al conocimiento humano han
revolucionado. Para cualquier profesional, el conocimiento acerca del funcionamiento de las tecnologías de la
información y la comunicación, se han convertido en un reto; pero para los profesionales encargados de seleccionar,
organizar y brindar acceso a la información a comunidades de usuarios, más que un reto, constituye una obligación.
ASPECTOS GENERALES

Casi todas las organizaciones públicas o privadas, al igual que las personas, dependen de alguna manera de la
tecnología de la información como una herramienta esencial para lograr sus objetivos de negocio o para poder
desarrollar actividades en su vida cotidiana; al mismo tiempo, todos tienen que enfrentarse con una amplia gama de
amenazas y vulnerabilidades asociadas a los entornos informáticos de hoy.

La seguridad de la información es más que un problema de seguridad de datos en los computadores; debe estar
básicamente orientada a proteger la propiedad intelectual y la información importante de las organizaciones y de las
personas.

Los riesgos de la información están presentes cuando confluyen dos elementos: amena- zas y vulnerabilidades. Las
amenazas y vulnerabilidades están íntimamente ligadas, y no puede haber ninguna consecuencia sin la presencia
conjunta de éstas. Las amenazas deben tomar ventaja de las vulnerabilidades y pueden venir de cualquier parte,
interna o externa, relacionada con el entorno de las organizaciones.

Las vulnerabilidades son una debilidad en la tecnología o en los procesos relacionados con la información, y como tal, se
consideran características propias de los sistemas de información o de la infraestructura que la contiene. Una amenaza,
en términos simples es cualquier situación o evento que puede afectar la posibilidad de que las organizaciones o las
personas puedan desarrollar sus actividades afectando directamente la información o los sistemas que la procesan.

TIPOS DE AMENAZAS

Básicamente, podemos agrupar las amenazas a la información en cuatro grandes categorías: Factores Humanos
(accidentales, errores); Fallas en los sistemas de procesa- miento de información; Desastres naturales y; Actos
maliciosos o malintencionados; algunas de estas amenazas son:

• Virus informáticos o código malicioso

• Uso no autorizado de Sistemas Informáticos


• Robo de Información
• Fraudes basados en el uso de computadores
• Suplantación de identidad
• Denegación de Servicios (DoS)
• Ataques de Fuerza Bruta
• Alteración de la Información
• Divulgación de Información
• Desastres Naturales

• Sabotaje, vandalismo
• Espionaje

A continuación, se presenta la descripción de algunas de las principales amenazas:


• Spywre (Programas espías): Código malicioso cuyo principal objetivo es recoger información sobre las actividades
de un usuario en un computador (tendencias de navegación), para permitir el despliegue sin autorización en ventanas
emergentes de propaganda de mercadeo, o para robar información personal (p.ej. números de tarjetas de crédito).
Hay iniciativas de utilizarlos para controlar el uso de software pirata. Según algunas estadísticas, cerca del 91% de los
computadores tienen spyware instalado, y de acuerdo a un reporte de la firma EarthLink”, en una revisión de cerca de
1 millón de computadores en Internet, el promedio de programas “spyware” en cada uno era de 28.

• Troyanos, virus y gusanos: Son programas de código malicioso, que de diferentes maneras se alojan en el
computador con el propósito de permitir el acceso no auto- rizado a un atacante, o permitir el control de forma remota
de los sistemas. El virus, adicionalmente, tiene como objetivo principal ser destructivo, dañando la información de la
máquina, o generando el consumo de recursos de manera incontrolada para bloquear o negar servicios.

El vector de propagación de estos códigos es, casi siempre, otro programa o archivo (un programa ejecutable, imagen,
video, música, reproducciones flash, etc.); de otra parte, los virus, se replican ellos
mismos una vez instalados en el sistema.
Las estadísticas indican que mensualmente se generan cientos de estos programas, cuyo principal objetivo es robo
financiero, poniendo en riesgo la información confidencial y el dinero de las personas y de las organizaciones, más que
la destrucción de archivos. La última tendencia en clases de virus se denomina cripto virus, el cual, una vez insta- lado,
cifra la información contenida en el disco del equipo, o algunos archivos contenidos en éste, y posteriormente se solicita
una cantidad de dinero para que sus autores entreguen las claves para recuperar el contenido de los archivos cifrados
(secuestro express de la información).

• Phishing: Es un ataque del tipo ingeniería social, cuyo objetivo principal es obtener de manera fraudulenta datos
confidenciales de un usuario, especialmente financieros, aprovechando la confianza que éste tiene en los servicios
tecnológicos, el desconocimiento de la forma en que operan y la oferta de servicios en algunos casos con pobres
medidas de seguridad. Actualmente, los ataques de phishing son bastante sofisticados, utilizando mensajes de correo
electrónico y falsos sitios Web, que suplantan perfectamente a los sitios originales.

• Spam: Recibo de mensajes no solicitados, principalmente por correo electrónico, cuyo propósito es difundir grandes
cantidades de mensajes comerciales o propagandísticos. Se han presentado casos en los que los envíos se hacen a
sistemas de telefonía celular, mensajes de texto, o a sistemas de faxes.

Para el año 2006, se tenía calculado que entre el 60 y el 70% de los correos electrónicos eran “spam”, con contenidos
comerciales o de material pornográfico.

Según la compañía Symantec, el tipo de spam más común en el año 2006 fue el relacionado con servicios financieros,
con cerca del 30% de todo el spam detectado.
• Botnets (Redes de robots): Son máquinas infectadas y controladas remotamente, que se comportan como
“zombis”, quedando incorporadas a redes distribuidas de computadores llamados robot, los cuales envían de forma
masiva mensajes de correo “spam” o código malicioso, con el objetivo de atacar otros sistemas; se han detectado redes
de más de 200.000 nodos enlazados y más de 10.000 formas diferentes de patrones de “bots”.

Las organizaciones deberían revisar los computadores de sus redes de datos para detectar síntomas de infecciones
relacionadas con este patrón, para evitar ser la fuente de ataques hacia otras redes o sistemas. También se requiere de
la colaboración y aporte permanente de los usuarios finales y de los proveedores de acceso a Internet y presta- dores
de servicios como los “café Internet”.

• Trashing: Un método cuyo nombre hace referencia al manejo de la basura. No es una técnica relacionada
directamente con los sistemas de información, pues los ata- cantes se valen de otra forma de ingeniería social y para
ello, el mecanismo utilizado, es la búsqueda en las canecas de la basura o en los sitios donde se desechan papeles y
documentos de extractos bancarios, facturas, recibos, borradores de documentos, etc., y posteriormente utilizarla según
convenga, elaborando un perfil de la víctima para robar su identidad.

ATAQUES INFORMÁTICOS
Según los datos de la encuesta anual de Seguridad del FBI, los virus informáticos siguen siendo la principal fuente de
pérdida financiera en las organizaciones, seguidos por los impactos derivados de accesos no autorizados a los
sistemas, el robo de información de propiedad industrial, y la pérdida de computadores personales o elementos de
computación móvil. Estas causas generan más del 74% del total de las pérdidas financieras.

Las inversiones en tecnología para protección en seguridad informática cada día aumentan, y aun así, se presentan
resultados como los mostrados en la encuesta e ilustrados en la siguiente gráfica; las situaciones de inseguridad
informática o de la información no se dan solo por personas descuidadas que divulgan información confidencial, se
dan en grandes empresas multinacionales, que cuentan con departamentos de tecnología y recursos suficientes para
invertir en protección.
Según un reciente estudio publicado por Avante Garde, que realizó una prueba consistente en dejar unos sistemas
conectados a Internet con las protecciones básicas con- figuradas de fábrica, el tiempo promedio en el que un equipo
resultó “exitosamente” atacado fue de solo 4 minutos.

La primera cosa que una persona hace con un computador nuevo es conectarlo a In- ternet, enviar correos, bajar
archivos (música, videos, etc.), navegar, jugar, “chatear”, y otras cosas; nadie piensa en la seguridad del equipo, instalar
parches y herramientas de protección. (Firewall personal, antivirus, anti-spam, copias de respaldo).

La falla principal que permite que los usuarios sean atacados y sean víctimas de la gran cantidad de amenazas que nos
acechan, radica en que en muchos casos no se está gestionando la tecnología dentro de un marco completo de
protección de la información, y en la falta de concientización a las personas en los riesgos relacionados con el uso de
tecnología y de herramientas como Internet, por lo que los esfuerzos se pierden o se orientan a cumplir objetivos
imprecisos. Las inversiones en tecnología de seguridad, como solución a los problemas planteados, deben ser
realizadas dentro de un marco sincronizado con otra serie de medidas para formar lo que se conoce como un “Sistema
de Gestión de Seguridad de la Información”.

IDENTIFICACIÓN EN LA RED
Todos los sistemas informáticos conectados en red poseen identificadores para poder enviar y recibir la información
desde otros sistemas. Esta identificación se conoce como la dirección IP (Internet Protocol).

Para que un sistema pueda acceder a Internet, necesita tener una dirección IP única, que no se repita o que no posea
otro sistema en la red. Para situaciones normales como envío de correo ofensivo, navegación, descarga de archivos,
conversación con otros usuarios, es posible encontrar el rastro dejado por el computador utilizado, y en algunos casos
logar detectar su ubicación física.

La red no es totalmente anónima, pero para lograr la identificación se requiere en muchos casos de la colaboración de
diferentes entidades como los proveedores de acceso a Internet y las empresas que prestan servicios de alojamiento de
páginas Web.

Los sistemas informáticos utilizan niveles pobres de autenticación tanto de sistemas como de usuarios, lo cual
disminuye la posibilidad de actuar contra los atacantes. Para ataques elaborados como envío de spam, virus o inclusive
accesos no autorizados, los atacantes han desarrollado técnicas que permiten utilizar direcciones simuladas o
falsas, cambiando la dirección original asignada, y de esa forma engañar los procesos de búsqueda e identificación y
en muchos casos se valen de servidores públicos, para que, en caso de ser identificados, se puedan mover fácilmente
a otros sistemas sin dejar rastro, y continuar con sus ataques.

LA GESTIÓN DE LA SEGURIDAD DE LA INFORMACIÓN

“La información es un activo que, al igual que otros activos del negocio, es esencial para la organización, y por lo tanto
debe ser protegido de forma adecuada.”
La OCDE desarrollo por primera vez en 1992 una serie de Directrices para la Seguridad de los Sistemas de
Información, las cuales tratan de promover el uso y desarrollo de una cultura de la Seguridad, no solo en el desarrollo
de Sistemas y Redes de comunicación, sino mediante la adopción de “nuevas formas de pensamiento y
comportamiento en el uso de la interconexión de esos sistemas”.
Las Directrices presentadas son: Concientización, Responsabilidad, Respuesta Adecua- da, Ética, Democracia,
Evaluación del Riesgo, Diseño y Realización de la Seguridad, Gestión de Seguridad, Reevaluación.

Con la evolución de los sistemas de información y de la forma de hacer negocios, la información se ha convertido en
uno de los activos de mayor valor para las personas y especialmente para las organizaciones. “Los sistemas, redes y
servicios de información afines, deben ser fiables y seguros, dado que los participantes son cada más dependientes
de estos. Sólo un enfoque que tenga en cuenta los intereses de todos los participantes y la naturaleza de los sistemas,
redes y servicios afines, puede proporcionar una seguridad efectiva.”

Los objetivos que se buscan con la Gestión de la Seguridad de la Información son la protección de la confidencialidad,
integridad y disponibilidad de la información y de los bienes que la contienen o procesan. De esta manera, las
organizaciones y personas se pueden proteger de:
• Divulgación indebida de información sensible o confidencial, de forma accidental o bien, sin autorización.

• Modificación sin autorización o bien, de forma accidental, de información crítica, sin conocimiento de los
propietarios.

• Pérdida de información importante sin posibilidad de recuperarla.

• No tener acceso o disponibilidad de la información cuando sea necesaria

La información debe ser manejada y protegida adecuadamente de los riesgos o amenazas que enfrente. La información
valiosa se puede encontrar en diferentes formas: impresa, almacenada electrónicamente, transmitida por diferentes
medios de comunicación o de transporte, divulgada por medios audiovisuales, en el conocimiento de las personas, etc.

ISO17799 E ISO27001

Los estándares ISO 17799 e ISO 27001 le dan a una organización las bases para desarrollar un marco de gestión de la
seguridad de la información efectivo, que le permita proteger sus activos de información importantes, minimizando sus
riesgos y optimizando las inversiones y esfuerzos necesarios para su protección.

Una de las formas de protección consiste en la aplicación de controles, que en la práctica pueden ser políticas,
procesos, procedimientos, organización (definición de una estructura organizacional de seguridad), elementos de
software y hardware, mecanismos de protección de la infraestructura física y de seguridad, así como la adecuada
selección y entrenamiento del personal que opera y utiliza los recursos de información o informáticos.

La norma ISO 17799 presenta una serie de áreas para ser gestionadas, mediante la aplicación de controles o
mecanismos de protección, las cuales van desde la seguridad en los sistemas, pasando por los aspectos de seguridad
física, recursos humanos y aspectos generales de la organización interna en las organizaciones.

CUMPLIMIENTO LEGAL
La norma ISO 17799 contiene un capítulo con referencias de buenas prácticas para desarrollar los controles necesarios
que se deben aplicar en las organizaciones para tener en cuenta los aspectos legales y regulatorios como parte de la
gestión de la seguridad de la información. Un punto importante que se debe tener en cuenta, es la protección
adecuada para el uso correcto de los sistemas o recursos informáticos o para evitar el uso indebido de esos recursos,
de manera que puedan afectar a terceros (Debida Diligencia).
Aspectos como el cumplimiento y protección de Propiedad intelectual, Derechos de autor, Licencias de software,
registros de la organización, información confidencial de clientes, empleados o proveedores, así como el cumplimiento
de regulaciones provenientes de organizaciones o entes de control como la Superintendencia Financiera (SARO),
Ministerios, Basilea, organismos reguladores de comercio electrónico, ley de “Habeas Data”, SOX5, etc., son aspectos
que deben ser incorporados en la definición y aplicación de mecanismos de protección de la información.

Las redes de datos no tienen fronteras físicas y en ocasiones tampoco fronteras legales, por lo que se debe tener
especial consideración cuando el flujo de información involucra instituciones situadas en países con regulaciones o
normas diferentes, pues lo que en un sitio es ser normal, puede ser indebido o ilegal en otro. Un caso específico es el
uso de mecanismos de cifrado, que en algunos países no tiene regulación ni control y en otros es estrictamente
prohibido o fuertemente regulado.

CONCIENTIZACIÓN

Concientización es el nivel de entendimiento que se tiene entre la comunidad de usuarios de un sistema o de la


información en sí misma, de los procesos de seguridad para protegerla o de cómo usarla.

El proceso de concientización debe estar orientado a sensibilizar a todas las personas para que identifiquen las
amenazas que enfrenta la información y que sigan una serie de reglas o normas para que estas no se materialicen;
ellas son quienes crean, utilizan y custodian la información.

Es tema de concientización es quizá el punto más neurálgico para obtener buenos resultados en cualquier plan de
seguridad de la información, debido a que la persona es casi siempre el punto más débil, por la naturaleza misma del
ser humano.

Una de las principales vulnerabilidades actuales se relaciona con la ingeniería social, que es el proceso de convencer a
las personas para que divulguen información confidencial. Generalmente se basa en engaños o suplantación de
identidad, así como en aparentar tener una autoridad que no es real, de manera que la víctima quede en una situación
desprotegida, de la cual no es consciente, y se convierte en ayuda para el atacante; es un proceso muy efectivo, que
solo puede ser reducido con entrenamiento y concientización adecuados.

CONCLUSIONES

La información ha sido uno de los elementos claves en el desarrollo y éxito de los negocios y en el desarrollo de la gran
mayoría de actividades diarias para los seres humanos. Por esta razón, las organizaciones son cada vez más
conscientes de la necesidad de proteger la información de las diferentes amenazas a las que están expuestas.

Hay muchos tipos de amenazas contra los sistemas de información y contra la información en general. No todas las
amenazas están relacionadas con delitos informáticos, pero todas, de alguna forma, significan un riesgo para las
organizaciones y sus consecuencias deben ser evaluadas. Fallas de Hardware o software, situaciones ambientales o
naturales, accidentes, amenazas deliberadas con carácter delictivo como robo o destrucción de propiedad, y en general
cualquier tipo de amenazas con origen interno o externo.

La seguridad de la información está orienta a proteger una serie de atributos que principalmente están relacionados con
la confidencialidad, integridad y disponibilidad de ésta y por lo tanto a evitar que las amenazas a estas categorías
puedan afectar a las organizaciones.
Sin embargo, no hay ninguna medida que pueda garantizar un ambiente libre de amenazas o sin riesgos para la
información y para las organizaciones o individuos que la requieren. Por esta razón es que se hace necesario adoptar
modelos adecuados de gestión de la seguridad de la información que permitan logar niveles efectivos de protección,
basados en la relación coordinada de los diferentes mecanismos existentes, especialmente, los elementos físicos de
protección basados en hardware y software, los elementos administrativos como políticas y procedimientos, y el recurso
humano que administra, opera y utiliza los recursos informáticos.

Un modelo de gestión ampliamente aceptado es el que se presenta en la norma ISO/IEC 27001:2005, que permite tener un
sistema de gestión de la seguridad de la información alineado con los objetivos que las organizaciones tengan para la
protección de su información, con la incorporación de las obligaciones en el cumplimiento de normas, leyes y
regulaciones.

Finalmente, el soporte fundamental para lograr los niveles de protección adecuados es una permanente
concientización a las personas, para sensibilizarlas en el uso adecuado de los recursos informáticos, en los riesgos
propios de su utilización y en la necesidad de adoptar mecanismos de protección que permitan preservar las
características básicas de la información de las consecuencias derivadas de posible materialización de los diferentes
tipos de amenazas identificada
BREVE HISTORIA DE LA CULTURA HACKER

En ella exploramos los orígenes de la cultura hacker, incluyendo la prehistoria de los Auténticos Programadores, los
buenos tiempos del Laboratorio de Inteligencia Artificial del MIT, y cómo la antigua ARPANET dio lugar a la primera
"nación de redes". Nubarrones sobre Júpiter. Se describe el auge inicial de Unix y su posterior estancamiento. La nueva
esperanza surgida en Finlandia y cómo el "último hacker auténtico" se convierte en patriarca de las nuevas generaciones.
Esbozamos la forma en que Linux y la popularización de Internet sacaron a la cultura hacker de los márgenes del
conocimiento público hasta el lugar relevante que ocupa actualmente.

1. Texto original

A Brief History of Hackerdom

2. Prólogo: los Auténticos Programadores

Al principio fueron los Auténticos Programadores.

No era así como se llamaban a sí mismos. Tampoco "hackers" ni nada parecido; el sobrenombre "Auténtico
Programador" (Real Programmer) no sería usado hasta el año 1980, en que uno de ellos lo hizo de forma retrospectiva.
Desde 1945, las tecnologías de la computación habían atraído a muchos de los cerebros más brillantes y creativos del
mundo. Desde el primer computador ENIAC de Eckert y Mauchly, existió una cultura técnica de cierta continuidad,
consciente de sí misma, compuesta por programadores entusiastas; personas que creaban y manipulaban software por
pura diversión.

Los Auténticos Programadores provenían habitualmente de disciplinas como la ingeniería o la física y con frecuencia se
trataba de radioaficionados. Llevaban calcetines blancos, camisas de poliéster con corbata y gafas gruesas, y
programaban en código máquina, en ensamblador, en FORTRAN y en media docena más de arcaicos lenguajes ya
olvidados.

Desde el fin de la Segunda Guerra Mundial hasta comienzos de los 70, en los felices días del procesamiento por lotes y
las grandes supercomputadoras "de hierro", los Auténticos Programadores constituyeron la cultura técnica dominante en
el ámbito de la computación. Algunos vestigios venerados del folklore hacker datan de esta época, entre ellos varias
listas de las Leyes de Murphy y el póster germano-burlesco "Blinkenlights" que aún adorna muchas salas de
computadoras.

Algunas de las personas que crecieron en la cultura de los Auténticos Programadores permanecieron en activo hasta
bien entrados los 90. Seymour Cray, diseñador de la gama de supercomputadoras Cray, fue uno de los mejores. Se dice
de él que, en cierta ocasión, introdujo de principio a fin un sistema operativo de su invención en una de sus
computadoras, usando los conmutadores de su panel de control. En octal. Sin un solo error. Y funcionó. Un "macho
supremo" entre los Auténticos Programadores.

Sin embargo, la cultura de los Auténticos Programadores estaba demasiado ligada al procesamiento por lotes,
concretamente al de tipo científico y fue eclipsada por el auge de la computación interactiva, las universidades y las
redes. Estas dieron lugar a otra tradición de la ingeniería que, con el tiempo, evolucionaría en la cultura hacker del código
abierto que hoy conocemos.

3. Los primeros Hackers


Los comienzos de la cultura hacker, tal como la conocemos actualmente, se pueden fechar con seguridad en 1961, año
en que el MIT adquirió la primera PDP-1. El comité de Señales y Energía del Tech Model Railroad Club adoptó la
computadora como su juguete tecnológico preferido e inventó herramientas de programación, un argot y toda una cultura
en torno a ella que aun hoy puede reconocerse entre nosotros. Estos primeros años han sido examinados en la primera
parte del libro de Steven Levy, Hackers.

La cultura en torno a las computadoras del MIT parece haber sido la primera en adoptar el término "hacker". Los hackers
del Tech Model Railroad Club se convirtieron en el núcleo del Laboratorio de Inteligencia Artificial del MIT, el centro más
destacado de investigación sobre Inteligencia Artificial de todo el mundo a principios de los 80. Su influencia se extendió
por todas partes a partir de 1969, año de creación de ARPANET.

ARPANET fue la primera red intercontinental de alta velocidad. Fue construida por el Departamento de Defensa
estadounidense como un experimento de comunicaciones digitales, pero creció hasta interconectar a cientos de
universidades, contratistas de defensa y centros de investigación. Permitió a investigadores de todas partes intercambiar
información con una rapidez y flexibilidad sin precedentes, dando un gran impulso a la colaboración y aumentando
enormemente el ritmo y la intensidad de los avances tecnológicos.

Pero ARPANET hizo algo más. Sus autopistas electrónicas reunieron a hackers de toda Norteamérica en una masa
crítica: en lugar de permanecer en pequeños grupos aislados desarrollando efímeras culturas locales, se descubrieron (o
reinventaron) a sí mismos como una tribu interconectada.

Las primeras creaciones deliberadas de la cultura hacker -las primeras listas de argot, las primeras sátiras, las primeras
discusiones conscientes sobre la ética del hacker- se propagaron por ARPANET en sus primeros años. Concretamente,
la primera versión del Jargon File o "Archivo de la Jerga" <http://www.catb.org/~esr/jargon/html/> se desarrolló mediante
colaboración descentralizada entre 1973 y 1975. Este diccionario de argot se convirtió en un documento definitivo de esta
cultura. Posteriormente sería publicada como The Hacker's Dictionary, en el año 1983; aquella primera versión está ya
agotada, pero existe una edición revisada y ampliada: The New Hacker's Dictionary.

La cultura hacker floreció en las universidades conectadas a la red, especialmente (aunque no exclusivamente) en sus
departamentos de informática. El Laboratorio de IA del MIT fue, prácticamente, el primero desde finales de los años
sesenta. Pero el Laboratorio de Inteligencia Artificial de Stanford (SAIL) y la Universidad de Carnegie Mellon le seguían
muy de cerca. Todos fueron prósperos centros de informática e investigación sobre IA. Todos ellos atrajeron a gente
brillante que hizo numerosas aportaciones a la cultura hacker, tanto en el ámbito técnico como en el folklórico.

Para comprender lo que vendría después, necesitamos de nuevo echar un vistazo a lo que ocurría con los propios
computadores, pues tanto el auge como la posterior caída del Laboratorio del MIT fueron determinados por cambios en la
tecnología informática.

Desde los días del PDP-1, el destino de la cultura hacker había estado unido a las computadoras PDP de DEC, Digital
Equipment Corporation. Esta compañía fue pionera en la computación interactiva para empresas y en sistemas
operativos de tiempo compartido. Debido a la flexibilidad y potencia de sus máquinas y a unos precios relativamente
económicos para la época, muchas universidades las compraron.

Los asequibles sistemas de tiempo compartido fueron el medio en el cual creció la cultura hacker y, durante la mayor
parte de su existencia, ARPANET fue principalmente una red de computadoras DEC. La más importante de estas fue la
PDP-10, aparecida en 1967. La 10 fue la favorita de los hackers durante casi 15 años; TOPS-10 (el sistema operativo de
DEC para ella) y MACRO-10 (su lenguaje ensamblador) todavía se recuerdan con nostalgia en una gran cantidad de
argot y folklore.
El MIT, aunque hizo uso de la PDP-10 como todo el mundo, tomó un camino ligeramente diferente; rechazó por completo
el software de DEC para ella y construyó su propio sistema operativo, el legendario ITS, cuyo significado, Sistema de
Tiempo-compartido Incompatible, da una pista bastante buena sobre la actitud de los hackers del MIT. Querían hacerlo a
su manera. Afortunadamente para todos, la gente del MIT poseía tanta inteligencia como arrogancia. El extraño ITS, con
sus excentricidades y errores ocasionales, albergó toda una brillante sucesión de innovaciones técnicas y todavía
conserva el record del sistema de tiempo compartido más largamente usado.

ITS fue escrito en ensamblador, pero muchos proyectos relacionados se escribieron en el lenguaje de Inteligencia
Artificial LISP. Este fue mucho más potente y flexible que cualquier otro lenguaje de la época; de hecho, tiene un mejor
diseño que la mayoría de lenguajes de hoy en día, veinticinco años después. LISP dio a los hackers de ITS libertad para
pensar de forma creativa y poco convencional. Fue un factor importante en sus éxitos y aún sigue siendo uno de los
lenguajes preferidos por los hackers.

Muchas de las creaciones técnicas dentro de la cultura del ITS aún perduran; el programa de edición Emacs es quizá el
más conocido. Y gran parte del folklore del ITS está aún vivo entre los hackers, como puede leerse en Jargon File
<http://www.catb.org/~esr/jargon/html/>.

Pero el SAIL y la CMU no habían estado dormidos. Muchos de los hackers más destacados que surgieron alrededor de
las PDP-10 del SAIL serían más tarde figuras clave en el desarrollo de los computadores personales y las interfaces de
ventanas con ratón e iconos que hoy día conocemos. Mientras tanto, los hackers de la CMU estuvieron trabajando en lo
que les llevaría a liderar las primeras aplicaciones prácticas a gran escala de los Sistemas Expertos y la Robótica
Industrial.

Otro nodo importante en la cultura fue el PARC de XEROX, el célebre Centro de Investigación de Palo Alto (California).
Durante más de una década, desde los primeros 70 a mitad de los 80, el PARC produjo una sorprendente cantidad de
hardware revolucionario e innovaciones software. El ratón moderno, las ventanas y la interfaz gráfica basada en iconos
se inventaron allí. También la impresora láser y las redes de área local. Y la serie D de computadoras del PARC se
anticipó a los potentes PC de los 80 en más de una década. Por desgracia, aquellos profetas carecieron de
reconocimiento en su propia empresa. Tanto es así que se convirtió en broma habitual el describir el PARC como el lugar
donde se desarrollaban ideas brillantes para provecho de los demás. Su influencia en la cultura hacker fue profunda.

Las culturas alrededor de ARPANET y las PDP-10 crecieron en fuerza y variedad durante los años 70. Las herramientas
de listas de correo electrónicas, que se habían usado para fomentar la cooperación intercontinental entre grupos de
intereses comunes, fueron utilizándose cada vez más con propósitos sociales y recreativos. DARPA hizo la vista gorda de
forma consciente a toda esta actividad "no autorizada": comprendía que este coste operativo extra era un precio
asequible a cambio de atraer a toda una generación de jóvenes de talento al área de la informática.

Quizá la más conocida entre las listas electrónicas "sociales" de ARPANET fue la lista SF-LOVERS, para fans de la
ciencia ficción; aún hoy tiene bastante movimiento en su versión de Internet, de la que ARPANET fue embrión. Pero hubo
otras muchas, que crearon un estilo de comunicación que más tarde ofrecerían servicios comerciales de tiempo
compartido como Compuserve, GEnie y Prodigy (y que finalmente lideraría AOL).

Vuestro narrador tomó contacto por primera vez con la cultura hacker allá por 1977, a través de la primera ARPANET y el
mundillo de la ciencia ficción. Desde entonces, pude ser testigo e incluso participar en muchos de los cambios que a
continuación se relatan.
4. El surgimiento de Unix

Lejos de la atractiva vida de ARPANET, en la jungla de New Jersey, algo venía ocurriendo desde 1969 que llegaría a
eclipsar la tradición de la PDP-10. El año que vio nacer a ARPANET también fue el año en que un hacker de Laboratorios
Bell llamado Ken Thompson inventó Unix.

Thompson había estado involucrado en el desarrollo de un sistema operativo de tiempo compartido llamado "Multics",
que compartía ascendencia con ITS. Multics fue un buen campo de pruebas para algunas ideas importantes sobre cómo
ocultar al usuario o incluso a los programadores las complejidades de un sistema operativo. La idea era hacer a Multics
más fácil de usar (y de programar) para poder así centrarse en el verdadero trabajo a realizar.

Laboratorios Bell se salió del proyecto cuando Multics mostró síntomas de haber ido inflándose hasta convertirse en un
mastodonte inútil (el sistema sería posteriormente comercializado sin apenas éxito por Honeywell). Ken Thompson echó
de menos el entorno Multics y comenzó a realizar pruebas, implementando una mezcla de sus características y algunas
ideas propias en una vieja DEC PDP-7 rescatada de la basura.

Otro hacker llamado Dennis Ritchie inventó un nuevo lenguaje llamado C para usarlo en el embrionario Unix de
Thompson. Al igual que Unix, C fue diseñado para ser ameno, flexible y no imponer límites. Pronto, el interés por estas
herramientas se fue extendiendo por Laboratorios Bell y se les dio un buen impulso en 1971, cuando Thompson y Ritchie
recibieron una oferta para crear lo que ahora llamaríamos un sistema de automatización de oficinas, para uso interno de
los laboratorios. Pero Thompson y Ritchie tenían la mirada puesta en un trofeo más importante.

Tradicionalmente, los sistemas operativos se escribían por completo en ensamblador para obtener la máxima eficiencia
de las computadoras donde se instalaban. Thompson y Ritchie fueron de los primeros en darse cuenta de que las
tecnologías del hardware y de los compiladores habían mejorado lo suficiente como para que un sistema operativo
pudiera escribirse usando únicamente C, y llegado 1978 el sistema completo había sido portado con éxito a varios tipos
de computadoras.

Esto nunca antes se había hecho, y las implicaciones fueron enormes. Si Unix podía tener la misma apariencia, el mismo
potencial, en computadoras de distinto tipo, podría servir de entorno software común para todas ellas. Los usuarios no
tendrían que pagar por un nuevo diseño de software cada vez que una máquina se quedara obsoleta. Los hackers
podrían trasladar sus herramientas entre distintas computadoras, en vez de tener que reinventar los equivalentes del
fuego y la rueda cada vez.

Además de la portabilidad, Unix y C tenían otras importantes cualidades. Ambos se crearon con una filosofía de tipo
"hazlo sencillo, idiota": un programador podía retener en la cabeza la estructura lógica de C (al contrario que con la
mayoría de lenguajes) en lugar de recurrir continuamente a los manuales. Unix se estructuró como un conjunto de
herramientas flexible, compuesto por diversos programas sencillos, diseñados para poderse combinar entre ellos de
distintas y provechosas maneras.

La combinación demostró poder adaptarse a un amplio rango de tareas de computación, incluyendo muchas del todo
imprevistas por sus diseñadores. Se extendió rápidamente por AT&T, a pesar de la falta de un programa oficial de
soporte. Hacia 1980, se había extendido por un gran número de centros de computación de laboratorios y universidades,
y miles de hackers lo consideraban su hogar.
Las máquinas habituales en los primeros tiempos de la cultura Unix eran las PDP-11 y su descendiente, la VAX. Pero
debido a la portabilidad de Unix, se ejecutó, prácticamente sin sufrir cambios, en máquinas tan diversas como las que
podían encontrarse en toda ARPANET. Y nadie usaba ensamblador: los programas en C eran fácilmente portables entre
todas estas máquinas.

Unix tenía incluso su propio sistema de redes, de tipo UUCP: con velocidades bajas y poca fiabilidad en la transmisión,
pero barato. Cualquier par de máquinas Unix podía intercambiar correo electrónico "punto a punto" usando líneas
telefónicas convencionales; esta funcionalidad estaba integrada en el propio sistema, no era ningún extra opcional. En
1980 los primeros servidores de USENET comenzaron a intercambiar noticias, formando un gigantesco tablón de
anuncios que pronto crecería hasta superar en tamaño a ARPANET. Los servidores Unix pasaron a constituir su propia
"nación de redes" en torno a USENET.

ARPANET también contaba con algunos servidores Unix. Pronto las culturas de las PDP-10 y de Unix/USENET entraron
en contacto y sus límites se empezaron a desdibujar, aunque en un principio no fue fácil. Los hackers de las PDP-10
miraban a la gente de Unix como un hatajo de advenedizos, que usaban herramientas ridículamente primitivas en
comparación con la complejidad de ITS y LISP, adorablemente barroca. "Cuchillos de piedra y pieles de oso", era lo que
solían murmurar.

Y aún existía una tercera corriente. El primer computador personal había salido al mercado en 1975; Apple se fundó en
1977 y los avances se sucedieron con increíble rapidez durante los años que siguieron. El potencial de los
microordenadores estaba claro y atrajo a otra nueva generación de jóvenes hackers. Su lenguaje era el BASIC, tan
primitivo que los adeptos a las PDP-10 y los entusiastas del Unix lo consideraban absolutamente despreciable.

5. El fin de los viejos tiempos

Así estaban las cosas en 1980: tres culturas cuyos bordes se solapaban, pero estaban agrupadas en torno a tecnologías
muy distintas. La cultura de las PDP-10 y ARPANET, ligada a LISP, a MACRO, a TOPS-10, a ITS y al SAIL; la gente de
Unix y C con sus PDP-11, sus VAXen y sus conexiones telefónicas rudimentarias, y una anárquica horda de entusiastas
de los primeros microordenadores, decididos a acercar el potencial de las computadoras al pueblo.

De entre todos ellos, la cultura del ITS aún podía reclamar un puesto de honor, pero sobre el Laboratorio se cernían
nubarrones de tormenta. La tecnología de las PDP-10 sobre la que se asentaba ITS estaba quedándose obsoleta, y el
propio Laboratorio se dividió en facciones tras los primeros intentos de comercializar la Inteligencia Artificial. Algunos de
los mejores del Laboratorio (y del SAIL y la CMU) fueron seducidos por empleos muy bien pagados en empresas de
nueva creación.

El golpe de gracia vino en 1983, cuando DEC canceló Jupiter, su continuación para la PDP-10, pasando a concentrarse
en las líneas de las PDP-11 y las VAX. ITS ya no tenía futuro. Como no era portable, trasladar ITS a un nuevo hardware
suponía un esfuerzo mayor del que cualquiera podía permitirse. La variante de Berkeley del Unix ejecutándose en
máquinas VAX, se convirtió en el sistema "para hackers" por excelencia, y todo aquel con visión de futuro pudo ver que el
potencial de los microordenadores estaba creciendo tan rápidamente que probablemente estos llegarían a barrer con
todo a su paso.

Fue más o menos en aquel momento cuando Levy escribió Hackers. Uno de sus principales informadores fue Richard M.
Stallman (inventor de Emacs), una figura clave en el Laboratorio y su más firme resistencia frente a la comercialización
de la tecnología de este.
Stallman (a quien se le conoce habitualmente por sus iniciales y nombre de "login", RMS) siguió adelante, formando la
Free Software Foundation ("Fundación del Software Libre") y se dedicó a la producción de software libre de calidad. Levy
lo elogió llamándole "el último hacker auténtico", una denominación que felizmente resultó ser incorrecta.

El grandioso plan de Stallman resumió nítidamente la transición que iba a experimentar la cultura hacker a principios de
los 80: en 1982 comenzó la construcción de un clon completo de Unix, escrito en C y disponible gratuitamente. Su
proyecto se conoció como sistema operativo GNU ("GNU No es Unix") en una especie de acrónimo recursivo. GNU
pronto se convirtió en un foco importante de la actividad de los hackers. Así, el espíritu y la tradición de ITS fueron
preservados como parte importante de la nueva cultura hacker, centrada en VAX y Unix.

De hecho, desde su fundación y durante más de una década, la Free Software Foundation de RMS definiría en gran
parte la ideología común de la cultura hacker, y el propio Stallman sería el único candidato creíble al liderazgo de la tribu.

Sucedió también entre 1982 y 1983 que las tecnologías del microchip y la red de área local comenzaron a causar un
impacto importante en la cultura hacker. Ethernet y el microchip 68000 de Motorola constituían una combinación de gran
potencial, y aparecieron nuevas empresas que acabarían por desarrollar la primera generación de lo que hoy llamamos
estaciones de trabajo.

En 1982, un grupo de hackers del Unix provenientes de Standford y Berkeley fundaron Sun Microsystems, en la creencia
de que Unix, corriendo en el hardware relativamente económico basado en el 68000, resultaría una combinación
ganadora en una amplia variedad de aplicaciones. Estaban en lo cierto, y su visión fijó las normas para toda una nueva
industria. Aunque sus precios quedaban fuera del alcance de muchos particulares, las estaciones de trabajo resultaban
baratas para las empresas y universidades; las redes de estas (una para cada usuario) reemplazaron rápidamente las
viejas VAX y otros sistemas de tiempo compartido.

6. La era del Unix propietario

En 1984, cuando Ma Bell cerró y Unix pasó a ser un producto respaldado por AT&T, la escisión más importante en la
cultura hacker se daba entre una "nación de redes" más o menos consistente, basada en Internet y USENET (y
compuesta en su mayoría por servidores o estaciones de trabajo corriendo Unix) y una inmensa área remota,
desconectada, formada por entusiastas de los microordenadores.

Fue también más o menos por aquel entonces cuando la prensa se ocupó por primera vez de episodios importantes
relacionados con el cracking, y fue aquí cuando los periodistas comenzaron a hacer un mal uso del término "hacker" para
referirse a vándalos informáticos, uso que tristemente aún perdura.

Las estaciones de trabajo creadas por Sun y otros, abrieron nuevos caminos para los hackers. Se habían fabricado para
realizar gráficos de alto rendimiento y ofrecer datos compartidos en las redes. Durante los años 80, la comunidad hacker
estuvo bastante ocupada con el reto de crear el software y las herramientas necesarias para obtener el máximo de estas
prestaciones. El Unix de Berkeley incorporó soporte integrado para los protocolos de ARPANET, que ofrecieron una
solución a los problemas de funcionamiento en red asociados a las lentas conexiones UUCP y estimuló el crecimiento de
Internet.

Hubo varios intentos de domesticación de los gráficos para estaciones de trabajo. El que prevaleció fue el sistema X
Window, desarrollado en el MIT con la colaboración de cientos de individuos pertenecientes a docenas de empresas. Un
factor determinante para su éxito fue el hecho de que los desarrolladores estaban dispuestos a ceder las fuentes de
forma gratuita de acuerdo con la ética hacker, pudiendo distribuirlos en Internet. La victoria de X frente a sistemas
gráficos propietarios (incluido el propuesto por la propia Sun) fue un importante presagio de los cambios que, unos años
más tarde, afectarían profundamente al propio Unix.

Aún a veces se respiraba cierto tedio faccionario en la rivalidad entre ITS y Unix (sobre todo en la parte de los partidarios
de ITS). Pero la última computadora con ITS se apagó para siempre en 1990; los fanáticos se quedaron sin su razón de
ser y la mayoría de ellos se fue adaptando, con mayor o menor grado de refunfuño, a la cultura Unix.

Entre la comunidad hacker conectada en red, la gran rivalidad de los 80 se dio entre los entusiastas del Unix de Berkeley
y las correspondientes versiones de AT&T. Aún se pueden encontrar copias de un póster de la época en que un piloto
caricaturizado de X-Wing sacado de la Guerra de las Galaxias abandona raudo a una Estrella de la Muerte envuelta en
llamas, en la que se puede distinguir el logotipo de AT&T. A los hackers de Berkeley les gustaba imaginarse como
rebeldes enfrentados a desalmados imperios corporativos. El Unix de AT&T nunca alcanzó al de BSD/Sun en cuota de
mercado, pero ganó las guerras de estándares. Para 1990 las versiones de AT&T y BSD se volvieron difíciles de
distinguir, ya que cada una había ido adoptando gran parte de las innovaciones de la otra.

Con la llegada de los años 90, la tecnología de las estaciones de trabajo de la anterior década comenzó a verse
seriamente amenazada por los nuevos computadores personales, baratos y de gran rendimiento, que se basaban en el
chip 386 de Intel y sus derivados. Por primera vez, un hacker podía permitirse un computador doméstico comparable en
potencia y capacidad de almacenamiento a los servidores de diez años antes, máquinas con Unix capaces de servir de
plataforma de desarrollo y de comunicarse con Internet.

El mundo MS-DOS permaneció felizmente ajeno a todo esto. Aunque aquellos primeros entusiastas de los
microordenadores pronto crecieron hasta formar una población de hackers del DOS y de los Mac, muchas veces mayor a
la de la cultura en torno a la red, nunca fueron conscientes de su propia condición. El ritmo de los cambios fue tan rápido
que continuamente surgían decenas de culturas técnicas que pronto desaparecían, sin llegar nunca a tener la estabilidad
necesaria para desarrollar una tradición común con su propia jerga, su folklore y su historia mítica. La ausencia de una
red realmente popular que se pudiera comparar a UUCP o a Internet les impidió convertirse en otra "nación de redes".

El acceso generalizado a servicios on-line comerciales como Compuserve o GEnie estaba empezando a afianzarse, pero
el hecho de que los sistemas operativos (a excepción de Unix) no llevaran integradas herramientas de desarrollo hizo
que los códigos fuente compartidos mediante este tipo de conexiones fuera escaso. Así que no pudo desarrollarse una
tradición de colaboración entre hackers.

A la corriente principal de la cultura hacker, (des)organizada en torno a Internet, y que hasta el momento se identificaba
mayoritariamente con la cultura técnica de Unix, le traía sin cuidado este tipo de servicios comerciales. Lo único que
deseaba eran mejores herramientas y más Internet, y los económicos PCs de 32 bits prometían poner todo esto al
alcance de cualquiera.

Pero ¿dónde estaba el software? Los Unix comerciales seguían siendo caros, del orden de varios "kilodólares". A
principios de los noventa, varias empresas hicieron un intento de vender adaptaciones del Unix de AT&T o de BSD para
PC. El éxito fue esquivo; los precios no habían bajado demasiado y, lo peor de todo, al adquirir el sistema operativo no
disponías del código fuente para poder modificarlo y distribuirlo. El negocio del software no proporcionaba a los hackers
lo que ellos querían.

Tampoco lo estaba haciendo la Free Software Foundation. El desarrollo de HURD, el kernel gratuito de Unix tan
largamente prometido por RMS a la comunidad hacker, quedó estancado durante años y no logró producir nada parecido
a un kernel utilizable hasta 1996 (aunque para 1990 la FSF ya podía ofrecer el resto de componentes complejos de un
sistema operativo similar a Unix).
Peor aún, en 1990 estaba cada vez más claro que un esfuerzo de diez años para comercializar Unix representaba
prácticamente un fracaso. La promesa de Unix de portabilidad entre plataformas se perdió en disputas infructuosas entre
media docena de versiones propietarias de Unix. Los participantes demostraron ser tan lentos, tan ciegos y tan ineptos
en cuestiones de marketing que Microsoft pudo arrebatarles una inmensa porción de su mercado con la tecnología
escandalosamente inferior de su sistema operativo Windows.

A principios de 1993, un observador hostil podría haber tenido motivos suficientes para opinar que la historia del Unix
estaba prácticamente terminada, y con ella la suerte de la tribu hacker. Y los observadores hostiles no escaseaban
precisamente en la prensa informática; muchos de ellos habían estado prediciendo de forma ritual la muerte inminente
del Unix a intervalos de seis meses desde finales de los 70.

En aquellos días era de sabiduría popular el pensar que la era del tecno-heroísmo individual había llegado a su fin, que la
industria del software y la naciente Internet serían progresivamente dominadas por colosos como Microsoft. La primera
generación de hackers de Unix parecía estar ya vieja y cansada (el grupo de Investigación de Ciencias de la
Computación de Berkeley fue perdiendo empuje y se quedó sin financiación hacia 1994). Fue una época deprimente.

Afortunadamente, habían ocurrido cosas lejos de la mirada de la prensa del sector, e incluso de la de muchos hackers,
que poco después, en 1993 y 1994, darían lugar a desarrollos tremendamente positivos. Con el tiempo, estos
conducirían a la cultura hacker en una dirección totalmente nueva, llena de éxitos ni siquiera soñados.

7. Los primeros Unix libres

En el hueco dejado por el incompleto HURD de la Free Software Foundation se había deslizado un estudiante de la
Universidad de Helsinki llamado Linus Torvalds. En 1991 había empezado a desarrollar un kernel libre para máquinas
386 usando el conjunto de herramientas de la FSF. Su rápido éxito inicial atrajo a muchos hackers de Internet con la
intención de ayudarle a desarrollar Linux, un sistema Unix completo de código fuente totalmente abierto y redistribuible.

Linux no estaba libre de competidores. En 1991, al mismo tiempo que tenían lugar las primeras pruebas de Linus
Torvalds, William y Lynne Jolitz estaban portando, de manera experimental, las fuentes de BSD Unix a la arquitectura del
386. Cualquier observador que hubiera comparado la tecnología BSD con los primeros y toscos esfuerzos de Linus
habría confiado en que las adaptaciones del BSD se convertirían en los Unix libres para PC más importantes.

Sin embargo, la ventaja más importante de Linux no era de carácter técnico, sino sociológico. Hasta el momento en que
comenzó a desarrollarse, todo el mundo había creído que cualquier software de la complejidad de un sistema operativo
tenía que desarrollarse con una cuidadosa coordinación por un grupo de personas bien cohesionado y relativamente
pequeño. Este modelo era y aún sigue siendo típico del software comercial, así como de las grandes catedrales del
software libre construidas por la FSF durante los años ochenta. También fue el modelo que se siguió en el caso de los
proyectos FreeBSD, NetBSD y OpenBSD que surgieron a partir de la adaptación original 386BSD, realizada por los
hermanos Jolitz.

Linux evolucionó de una forma completamente diferente. Desde casi el primer momento, fue programado de forma más
bien eventual por un gran número de voluntarios coordinados a través de Internet. La calidad se mantenía, no con
estándares rígidos o autocracia, sino con la estrategia, ingenuamente sencilla, de publicar cada semana y obtener la
respuesta de cientos de usuarios en cuestión de días, creando un tipo de selección darwiniana rápida sobre las
mutaciones presentadas por los desarrolladores. Para sorpresa de casi todo el mundo, esto funcionó bastante bien.

Para finales de 1993, Linux podía competir en estabilidad y fiabilidad con muchos de los Unix comerciales, y contaba con
una cantidad inmensamente mayor de software. Incluso comenzaba a atraer adaptaciones de aplicaciones comerciales.
Un efecto indirecto de este desarrollo fue el exterminio de casi todos los pequeños proveedores de Unix propietario: sin
desarrolladores ni hackers a los que vender su producto, tuvieron que cerrar. Uno de los pocos supervivientes, BSDI
(Berkeley Systems Design, Incorporated) prosperó ofreciendo las fuentes completas junto a su Unix basado en BSD, y
cultivando unos estrechos lazos con la comunidad hacker.

Estos desarrollos no destacaron demasiado en su momento, incluso dentro de la comunidad hacker, y mucho menos
fuera de ella. La cultura hacker, desafiando las repetidas predicciones de su defunción, estaba empezando a reconstruir
el mundo del software comercial a su imagen y semejanza. Sin embargo, tendrían que pasar cinco años más, para que
esta tendencia llegara a ser evidente.

8. La gran explosión de la Web

Al crecimiento precoz de Linux se sumó otro fenómeno: el descubrimiento de Internet por parte del gran público. Los
años noventa también contemplaron el nacimiento de una floreciente industria de proveedores de Internet que vendían
conectividad por unos cuantos dólares al mes. Tras la invención de la World Wide Web, el ya de por sí rápido crecimiento
de Internet aceleró hasta alcanzar un ritmo frenético.

En 1994, año en que el grupo de desarrollo del Unix de Berkeley suspendió formalmente sus actividades, eran varias las
versiones libres de Unix (Linux y los descendientes del 386BSD) que actuaban como centros importantes de la actividad
de los hackers. Linux se estaba distribuyendo comercialmente en CD-ROM y se vendía como rosquillas. A finales de
1995, las principales empresas de informática hacían anuncios publicitarios elegantes en los que presumían de la
integración de sus productos, tanto software como hardware, con Internet.

A finales de los 90, las principales actividades dentro de la cultura hacker eran el desarrollo de Linux y la universalización
de Internet. La World Wide Web había convertido a Internet en un medio de comunicación de masas y muchos de los
hackers de los ochenta y principios de los 90 montaron Proveedores de Servicios Internet con la intención de
proporcionar acceso al gran público.

Esta popularización de Internet confirió a la comunidad hacker cierta respetabilidad y autoridad política. En 1994 y 1995,
el activismo hacker acabó con la propuesta Clipper, que pretendía poner bajo control del gobierno métodos criptográficos
robustos. En 1996 los hackers movilizaron una amplia coalición contra la mal llamada "Acción por la Decencia en las
Comunicaciones" (CDA), impidiendo la llegada de la censura a Internet.

Con esta victoria contra la CDA, pasamos de la historia a los acontecimientos actuales. También entramos en un periodo
en el que vuestro historiador (para su propia sorpresa) dejó de ser un mero espectador para convertirse en un actor más.

EN CONCLUSIÓN:

HACKER, tiene un concepto que es muchas veces malentendido de la sociedad y tiene una asociación negativa es el
concepto de Hacker. La mayoría de personas piensan en una persona mala que entra a la cuenta de Facebook de otra
persona o que de cualquier manera significa un peligro a la seguridad informática. Sin embargo, este concepto va más
allá.

Actualmente se habla de una cultura de Hacker que aún es un concepto desconocido. Las personas que pertenecen a la
dicha cultura tienen distintas características a los demás. Estas personas siempre tienen una feroz hambre de aprender
cosas nuevas, no solamente en el área de programación y tecnología, pero en todo que les interesa. Son apasionadas y
siempre están curiosas. No les impresiona si alguien es rico, tiene una familia respetada de la sociedad o qué apellido
tienes. Lo que sí les importa es que puedes hacer y crear cosas impresionantes, que tienes la capacidad de resolver
problemas y ofrecer soluciones extraordinarias a problemas.

Los hackers no renuncian. Aunque fracasan a veces siguen para adelante corrigiendo sus errores en el camino,
aprendiendo y al final llegando a su solución. Si fracasan no dan la culpa a un tercero sino piensan que la culpa es la
suya y analizan qué hice mal. Este tipo de personas no hablan más de lo necesario; dan más importancia a lo que hacen.

Los hackers pertenecen a comunidades que comparten sus ideas y valores y les gusta aprovechar de distintas
capacidades y habilidades para llegar a soluciones creativas y buenas. En esas comunidades no existen jerarquías y
todos trabajan en una manera muy horizontal. Se respeta cada uno y sus talentos y habilidades.

Se involucran en causas que les apasionan para buscar solucionar problemas actuales. Estas personas tienen una
mentalidad de resolver problemas y compartir las soluciones a otras personas, pero también esperan que los demás
hacen lo mismo para ellos. Los hackers son personas que no esperan hasta que alguien les diga qué hacer sino toman
su propia iniciativa en hacer cosas. Sobre todo, se divierten en el proceso de aprender y resolver problemas. Nunca
harían algo que no les parece divertido o que no les da curiosidad.

Los hackers no son superhéroes ni son humanos perfectos. Pero están en constante actualización y buscan mejorar el
mundo ofreciendo soluciones a diversos problemas y nos facilitan la vida no sólo en el campo de la tecnología, sino
también en medicina, economía, política y muchas más áreas. Necesitamos más hackers para mejorar nuestro mundo.

Bibliografía

 [Levy] Levy, Steven; Hackers, Anchor/Doubleday 1984, ISBN


0-385-19195-2.
 [Raymond] Raymond, Eric S.; The New Hacker's Dictionary, MIT Press,
3a edición 1996. ISBN 0-262-68092-0.
 David E. Lundstrom nos proporcionó una historia anecdótica sobre la época de
los "Auténticos Programadores" en "A Few Good Men From UNIVAC", 1987,
ISBN-0-262-62075-8.

Vous aimerez peut-être aussi