Traductor

Unidas, la Gestión de Riesgos y la Seguridad de Información tienen como principal desafío proteger uno de los principales activos de una organización: la información.

La información, en sus más variadas formas, es uno de los activos más valiosos y estratégicos de cualquier empresa hoy. Tanto para almacenarse adecuadamente, así como para disponer de datos e información relevante. Las principales preocupaciones de las organizaciones son la Seguridad de la Información y la Gestión de Riesgos.

Esencial para la salud organizacional, la Seguridad de la Información está basada en cinco pilares:

• Confidencialidad, que limita y controla el acceso a la información, de acuerdo a la autorización y necesidades de la empresa.
• Integridad, que garantice las características originales de la información.
• Disponibilidad, que garantice el acceso de los usuarios para uso legítimo, de acuerdo con la autorización.
• Autenticidad, que garantice la fuente de la información.
• Irreversibilidad, que asegura la autoría de la información.
La Gestión de Riesgos unida a la Seguridad de la Información
La Gestión de Riesgos, por su parte, es fundamental para garantizar el perfecto funcionamiento de toda la estructura tecnológica de la empresa, engloba la Seguridad de la Información, ya que hoy la vulnerabilidad y cantidad de riesgos que pueden comprometer la información de la empresa cada vez es mayor.
Al englobar la Gestión de la Seguridad de la Información, la Gestión de Riesgos tiene como principales desafíos proteger uno de los principales activos de la organización: la información, así como la reputación de la marca de la empresa, implementar y administrar controles que tengan como foco principal los objetivos del negocio, promover acciones correctivas y preventivas de forma eficiente, garantizar el cumplimiento de reglamentaciones y definir los procesos de gestión de la Seguridad de la Información.
Entre las ventajas de invertir en la Gestión de Riesgos orientada  a la Seguridad de la Información, está la prioridad de las acciones de acuerdo con las necesidades y los objetivos de la empresa y  la utilización de mediciones e indicadores de resultados.

 La Información es un activo estratégico, por eso, las principales preocupaciones de las organizaciones son la Seguridad de la Información y la Gestión de Riesgos.




Las contraseñas de internet: historia de un fracaso

Se necesitan complejas mezclas de símbolos para que sean seguras, pero incluso eso resulta a veces insuficiente. ¿Sirven o se acerca su fin?


Unos 24 caracteres que incluyan letras en mayúsculas, en minúsculas, números, símbolos y algún signo de un alfabeto distinto. Es la receta ideal para una contraseña segura, ¿pero quién es capaz de memorizar eso?
Particularmente porque en la actualidad se necesitan claves para prácticamente todo: iniciar sesiones en correos electrónicosredes sociales, bancos, servicios como gas o electricidad, aplicaciones en celulares y compras a través de internet, por mencionar sólo algunas áreas.
¿Las más seguras? Deben ser complicadas, larguísimas y cambiarse frecuentemente. Si es suficientemente compleja para que un cracker logre descifrarla, entonces será casi imposible recordarla.
Las claves también revelan información personal, como la fecha de nacimiento o el grupo musical de preferencia de su dueño, pero justamente esos elementos que permitirían que la persona memorice la contraseña son los que hacen vulnerable a las claves.
Un reportaje realizado por la BBC en Reino Unido señala que una persona utiliza un promedio de 26 cuentas con clave de acceso, mientras que las contraseñas que utiliza para protegerlas son apenas seis, lo que incrementa las posibilidades de que sean hackeadas.
FUTURO OSCURO
Las 
contraseñas existen desde hace siglos: los primeros registros históricos que se tienen datan de los tiempos de los romanos.
Y aunque en los inicios de la era de internet eran efectivas, con el paso del tiempo se han vuelto vulnerables.
En la actualidad existen programas y computadoras capaces de realizar 53.000 millones de intentos por segundo para adivinar una contraseña. Las posibilidades de que lo logre, y en poco tiempo, son muy elevadas.
Jeremi Gosney, director de SCG, una empresa que se dedica a descubrir las claves de otros y fabrica dispositivos con ese objetivo, creó un grupo de computadoras que funcionan como una unidad y que son capaces de probar 350.000 millones de veces por segundo diferentes contraseñas para tratar de descifrar la que le interesa.
“A algunos les puede sorprender, pero en el mercado existe interés por la compra de equipos computarizados con ese fin porque son útiles para organismos policiales, departamentos que se dedican a la investigación de crímenes y otras dependencias gubernamentales”, dice Gosney.
Aunque esos, claro, son sólo sus usos bienintencionados. El robo de constraseñas con fines delictivos es otra de las aristas del asunto.
En los últimos cinco años, los recursos de los que se valen los crackers se han sofisticado.
“Se han desarrollado equipos que facilitan su labor, por ejemplo las tarjetas que mejoran el funcionamiento de los videojuegos. En segundo lugar están los incidentes en los que han quedado expuestos millones de contraseñas de usuarios, porque revelan cómo las personas las seleccionan. Finalmente, está la creación de programas que permiten descubrir claves, Hashcat es uno de las más populares”, explica a la BBC Dan Goodin, editor de seguridad informática del sitio web Ars Technica.

SOBREVIVIENDO
¿Se puede hacer algo para contrarrestar un panorama tan apocalíptico?
“Este medio es un juego constante de ataques y contrataques. Una de las opciones existentes es la de verificar la identidad de la persona a través de dos pasos. Después de usar su contraseña, la persona recibe un texto o utiliza una aplicación en su celular que permite asegurar que es quien dice ser”, comenta Stuart Aston, asesor de seguridad de Microsoft en el Reino Unido.
Según el especialista, otro elemento importante es la longitud de la clave siguiendo el principio de “a mayor número de caracteres, mayor seguridad”. Otra acción sencilla que dificulta el proceso de los crackers, y que no muchos conocen, es la de añadir un espacio entre un carácter y el otro.
Para facilitar la tarea, se puede utilizar un administrador de contraseñas, una herramienta cada vez más popular. Se trata de un programa que genera una complicada y larga clave única que permite almacenar el resto de las que se tengan.
¿SE ACERCA EL FIN?
Pero hay quienes opinan que el futuro –y el fin de la era de las contraseñas- podría estar en la tecnología biométrica.
“Existen diferentes alternativas en el mercado, las que reconocen las huellas digitales, el rostro o el iris. Y en la medida en la que se desarrollen, su costo disminuirá. En este momento pagamos por el valor de las patentes 90% menos de lo que teníamos que pagar cuando empezamos”, afirma Martin George, director de Smart Sensors, una empresa que se dedica a la elaboración de tecnología para la identificación a través del iris.
Pero este mecanismo también tiene sus detractores entre quienes argumentan que no sirve como método único de reconocimiento, como Aston.
O que no es suficientemente segura, como Gosney: para ejemplificar su punto, cuenta que su abogada utiliza un programa biométrico de reconocimiento facial para iniciar una sesión en su laptop, pero él, tomándole una foto con su teléfono y poniendo la imagen frente a la cámara de la computadora, logró tener acceso al equipo ajeno.
Así las cosas, muchos creen que las contraseñas, pese a su vulnerabilidad, seguirán siendo la mejor alternativa para proteger la información personal por un buen tiempo.
“Nada podrá hacer que la contraseña desaparezca”, afirma tajante Gosney.
Per Thorsheim, organizador de la Conferencia de Contraseñas y experto en el tema, no es tan tajante, pero está convencido de que se seguirán usando al menos por 20 años más.

Amenazas móviles crecieron un 58 por ciento en el último año

Consejos para realizar transacciones seguras desde su teléfono inteligente o tableta.



Symantec, compañía especializada en seguridad informática, reveló en su más reciente ‘Informe sobre Amenazas a la Seguridad en Internet’ que el incremento de los programas maliciosos que afectan a los equipos fue de un 58 por ciento en el último año y que un 32 por ciento de estos pretendía robar información (direcciones de correo electrónico y números telefónicos, principalmente).
Los smartphones y dispositivos móviles se están convirtiendo en componentes fundamentales para realizar pagos de productos y servicios mediante tarjetas de crédito o débito, según un informe de Juniper Research, lo cual revoluciona la forma de realizar transacciones vía electrónica.
La tecnología NFC (Near Field Communications) ya es una realidad en numerosos países, incluido Colombia y, gracias a ella, las transacciones móviles sin efectivo que permitan mover las tarjetas de crédito o débito a través de esta plataforma vinculada a los sistemas de pago, se abren paso cada día.
Además, la banca móvil está en aumento gracias al creciente número de instituciones financieras que ofrecen acceso a sus servicios a través de sitios web para móviles, aplicaciones y mensajes de texto.
La realización de transacciones sin dinero en efectivo trae consigo beneficios de costos por la rapidez y facilidad de uso; sin embargo, el usuario debe establecer una cuenta y verificar su identidad, lo cual crea un rastro digital de la información, razón por la cual es importante saber qué tan seguros son estos servicios para los usuarios y cómo proteger su información financiera y la prevención de correo no deseado.


“La falta de noticias sobre las amenazas de banca móvil no significa que los atacantes no lo estén pensando sino que están buscando distinta maneras para poder atacar a los consumidores desde cualquier dispositivo móvil o institución bancaria de preferencia”, explicó Symantec.
Ingenieros de Norton, solución de seguridad de Symantec, recomiendan seguir las siguientes pasos para evitar convertirse en víctima de los delincuentes informáticos a la hora de utilizar dispositivo móviles para realizar transacciones.

1. Si la plataforma de pago se encuentra dentro de un dispositivo móvil, establezca un código de acceso para bloquear el dispositivo en caso de que se pierda o se lo roben
2. Utilizar únicamente los sitios web oficiales para transacciones bancarias es clave. La banca móvil no debería cambiar dramáticamente la forma en las que los bancos se comunican, por esa razón hay que hacer caso omiso de correos electrónicos o mensajes de texto que solicitan actualización de los datos por parte de instituciones bancarias.
3. Ser consciente de los servicios de conexión a wi-fi pública, ya que es más fácil que los atacantes rastreen la información del usuario. A menos que se esté 100 por ciento seguro o confíe en la conexión, piense antes de exponer información de sus finanzas personales en esas redes.
4. Cuidado con lo que descarga. Es posible que las sesiones de lbanca móvil puedan verse amenazadas por medio de códigos maliciosos que están instalados en aplicaciones no seguras.
5. Se recomienda instalar un software de seguridad que leproporcionan al consumidor un mayor control y seguridad para prevenir el malware (programas maliciosos).
Por otra parte, el informe señala que 61 por ciento de los sitios web maliciosos son, en realidad, portales  web legítimos que han sido comprometidos e infectados por programas malicioso.
Los portales sobre temas de negocios, tecnología y compras están entre las 5 categorías de sitios más infectados.

Panorama en América Latina
De acuerdo con las estadísticas del estudio, Brasil, Argentina, México, Perú y Chile encabezan la lista de los países que generaron más actividad maliciosa en Internet durante 2012 a nivel de América Latina, siendo Brasil el único que aparece, además, en el top 10 mundial (lugar 4).
Brasil también es el país que recibió el mayor porcentaje de los virus detectados en países de América Latina (43,9 por ciento), mientras que México ocupó el segundo sitio con 18,8 por ciento de los virus en la región. El Informe también revela que Argentina ocupa el segundo sitio a nivel regional en cuando a spam recibido se refiere (18,4 por ciento), seguido de Perú (12,4 por ciento), Colombia (11 por ciento) y Chile (10,9 por ciento).

Expertos en tecnología afirman que entre el 2015 y el 2016 las transacciones bancarias desde móviles serán tan comunes como son hoy conectarse a Internet o hacer una llamada telefónica.

El frustrante Error 404: ¿por qué sigue apareciendo este mensaje?



Frustrante para todos, en cualquier momento. Pero, si resulta que la computadora no es la suya, sino la de un banco, el problema pasa a mayores.
Tanto grandes empresas como nosotros quedamos expuestos a problemas potencialmente catastróficos cuando estos sufren fallos en los sistemas informáticos. Tratos comerciales que tienen que ser abortados, personal que no recibe su sueldo o facturas que no se pagan a tiempo.
Sin embargo,* estos errores están lejos de ser inusuales.*
Muchos bancos tienen problemas frecuentes con sus sistemas, lo que deja a sus clientes a la deriva y a su personal de informática luchando por detectar y solucionar el problema.
Por supuesto, no son sólo los bancos los que sufren fallos tecnológicos. A veces le ocurre a organizaciones de las que la mayoría de la gente nunca ha oído hablar, pero que sin embargo, genera un efecto dominó sobre otras empresas e individuos.
Por ejemplo, en pleno apogeo del verano, el sistema de reserva de vuelos Sabre, utilizado por más de 300 compañías aéreas, falló durante varias horas, lo que resultó en cancelación de vuelos y retrasos. Y el personal de algunas aerolíneas debió recurrir a los tradicionales papel y lápiz para chequear a los pasajeros de forma manual.
Pero, ¿por qué se caen con tanta frecuencia estos importantes sistemas? De hecho, ¿por qué se caen?

EQUILIBRIO RENTABILIDAD-RIESGO

A menudo, la culpa la tiene el dinero: la eliminación de los errores de software y otras debilidades del sistema es cara.
“La cantidad de dinero que están dispuestos a gastar se basa en el riesgo relativo de lo que pasa si no lo hacen”, explica Simon Acott, director de la empresa de servicios de tecnologías de la información exponencial-e en un evento reciente.
“Hay que encontrar el equilibrio entre el riesgo y el beneficio”.
Este tipo de economía “caza-errores” es también la razón de que los software relativamente baratos sean propensos a bloquear o colapsar los computadores en los que se instalan.
Sin duda, hacer programas de computador más confiables sería posible, pero los desarrolladores tendrían que invertir mucho más tiempo y dinero, lo que implicaría que el precio del producto sería inaceptablemente alto.
El resultado es que las empresas terminan produciendo software lo “suficientemente fiable” y que se pueden vender a un precio apropiado para el mercado masivo.
SIN PRUEBAS SUFICIENTES

Pero, ¿qué pasa con los sistemas utilizados por los bancos y otras grandes empresas, en los que millones de clientes confían? ¿No vale la pena que estas organizaciones inviertan cantidades sustanciales para asegurar que la tecnología que usan no sea defectuosa?
“Voy a decir algo polémico: las fallas con los sistemas informáticos rara vez tienen que ver con la tecnología”, dice Damian Saunders, director de la compañía de software Citrix Systems, basada en Florida.
“Normalmente, la tecnología juega un papel en las fallas, pero cuando reviso la raíz del asunto, las causas predominante son las personas y los procesos”.
¿Qué quiere decir esto? En algunos casos puede ser tan simple como que el personal no se apega a las normas establecidas para probar un nuevo software antes de que salga al mercado.
Las organizaciones pueden tener una política planificada que implica probar diez veces un software, pero queda en nada si el personal no la sigue.
“Si hacen nueve pruebas de las diez y luego dicen: ‘Hemos hecho nueve, la décima saldrá bien’, entonces pueden tener problemas”, dice Andrew Marks, jefe del departamento de información de Tullow Oil, una compañía de exploración de petróleo y gas basada en Londres. “A menudo la décima prueba es la que falla”.
TECNOLOGÍA OBSOLETA

En lo que respecta a los bancos, sin embargo, hay una razón más fundamental por la cual los sistemas de computador son propensos al fracaso.
“Los bancos son viejos y la tecnología que utilizan es vieja. Y hay cada vez menos gente alrededor que sabe cómo hacerla funcionar”, dice un gerente de desarrollo de tecnologías de la información de una importante empresa de préstamos en Londres quien habló con la BBC bajo condición de anonimato.
En muchos casos, los bancos están utilizando versiones desactualizadas de software en lugar de versiones más recientes, porque no saben qué efecto puede tener una actualización en los otros sistemas con los que interactúa, explica el gerente.
“20% de los sistemas que se ejecutan en nuestro banco usan tecnología obsoleta, que ya no es compatible con el proveedor. No se puede culpar al software por la falla, porque en muchos casos si lo hubiéramos actualizado, no habría fallado”.
Ante la alternativa de actualizar estos sistemas  o dejarlos como están, muchos bancos optan por externalizar su gestión a terceras empresas y lavarse las manos, dice.
Pero es aún más difícil para las empresas contratadas mantener la confiabilidad de los sistemas.
“Cuando usted externaliza, pierde el conocimiento específico sobre la materia, lo que implica dedicar tres o cuatro veces más personal para mantener los sistemas en funcionamiento. Y en algunos casos, no tienen ni idea de lo que hace realmente el software del que están encargados, porque ya nadie se acuerda”.
El resultado es un gran equipo de personal que debe ser organizado y más gente con acceso al código del software.
“Esto puede tener enormes consecuencias negativas en términos de fiabilidad”, señala el gerente.

PROYECTO DE REEQUILIBRIO

Pero Kerry Hallard , director ejecutivo de la Asociación Nacional de Outsourcing, rechaza la idea de que la tercerización tenga parte de la culpa de los fallos del sistema bancario.
“En general la externalización aumenta las capacidades, no las disminuye”, asegura.
“Si se han contratado los servicios de terceros y se necesita más gente, hay algo mal”.
Sin embargo, el gerente de desarrollo mencionado anteriormente cree que la mejor forma de hacer los sistemas bancarios más fiables es desarrollar y mantener más capacidades dentro de los propios bancos para que los sistemas puedan ser modernizados.
“Sólo así el número de caídas catastróficas disminuirá”, concluye.


Una aplicación informática potencia la atención visual en personas con autismo

La Universidad de Granada (UGR) y la Fundación Orange han presentado Sígueme, una aplicación diseñada para potenciar la atención visual y entrenar la adquisición del significado en personas con autismo de bajo nivel de funcionamiento. De esta forma se las sitúa en la antesala del uso de otros programas y estrategias que posibiliten el acercamiento a la lectura.
La aplicación ya está disponible de manera gratuita tanto en AppStore de Apple como en Google Play para dispositivos Android, así como en la página web www.proyectosigueme.com donde se pueden descargar sus versiones para ordenadores con sistema operativo Windows o Linux.
Sígueme cuenta con seis fases que van desde la estimulación basal a la adquisición de significado a partir de vídeos, fotografías, dibujos y pictogramas. Así, por ejemplo, en la primera fase, 'Atención', se presentan una serie de secuencias animadas –espirales, círculos, líneas…– que tienen como objetivo captar la atención a través de estímulos visuales y auditivos.
Gradualmente, en las siguientes etapas se trabaja la abstracción y la asociación y generalización de conceptos a través de elementos cotidianos representados en vídeos, imágenes en 3D, fotografías y pictogramas, hasta llegar a una última fase de actividades de categorización y asociación mediante juegos.
En todas ellas la interacción con la herramienta es personalizable, de forma que se pueda adaptar la utilización de Sígueme a las necesidades y habilidades de cada persona, por ejemplo, opciones como 'solo mirar' o 'tocar' facilitan la adecuación al aprendizaje de cada uno.
Además, el programa permite crear o sustituir las imágenes, vídeos y sonidos del programa por otros pertenecientes al repertorio de objetos, espacios e intereses del propio usuario, y ofrece la configuración de perfiles de usuario. Este apartado sirve para asociar información a los alumnos, así como una serie de propiedades adaptables: tipos de interacción, representación de textos –tipografía y capitalización–, sonido y visualización de actividades o juegos.
Promovida por la Fundación Orange, la aplicación ha sido desarrollada por la Escuela de Informática y Telecomunicaciones de la UGR, con la colaboración del Colegio de Educación Especial de la Fundación Purísima Concepción de Granada y de Everyware Technologies.
Estudio piloto con 85 alumnos
Durante los últimos meses de desarrollo de Sígueme se ha llevado a cabo un estudio piloto con una muestra de 85 alumnos –20 chicas y 65 chicos– de 22 centros de toda España.

Los resultados del estudio, recogiendo tanto el uso de la aplicación como la valoración por parte de los profesionales, indican que la utilización de la aplicación durante 25 sesiones permite el desarrollo y fomento de la captación y fijación de la atención, del seguimiento visual y de las competencias motrices, así como de la comprensión de la relación causa-efecto, potenciando la actuación de usuario y la interacción, y el aumento de la motivación en niños y niñas con autismo.

Nuevo tipo de contraseñas gráficas

A fin de reforzar la seguridad ante la eventualidad de que una contraseña sea capturada, como sucede en los casos en los que listas de contraseñas son robadas de sitios web, un equipo de expertos de la Universidad Carnegie Mellon en Pittsburgh, Pensilvania, Estados Unidos, ha desarrollado un nuevo sistema de contraseñas que incorpora manchas, con forma parecida a las de tinta, para proporcionar un medida extra de protección.

Este nuevo tipo de contraseña, llamado GOTCHA (por las siglas de la definición en inglés: Generating panOptic Turing tests tell Computers and Humans Apart), sería adecuado para proteger cuentas de usuario de alto valor, como las que permiten el acceso vía internet a una cuenta bancaria, o a registros médicos o a otra información vital.

La idea con los GOTCHAs, es rechazar en internet a programas robot que capturan contraseñas. Estos programas se apoyan en la fuerza bruta del cálculo, y, sin barreras que les impidan actuar, tarde o temprano logran apoderarse de las contraseñas.

Para crear un GOTCHA, el usuario elige una contraseña y un ordenador genera al azar varias manchas de diversos colores. El usuario describe las manchas con una frase para cada gráfico. Estos textos breves se almacenan en un orden aleatorio junto con la contraseña. Cuando el usuario regresa al sitio web y hace login con la contraseña, las manchas aparecen otra vez junto con la lista de frases descriptivas; el usuario entonces empareja cada frase con el gráfico correspondiente.

[Img #16877]
El sistema de contraseñas GOTCHA incorpora manchas generadas al azar y las descripciones del usuario asignadas a esas imágenes. En el caso de la imagen aquí mostrada, la descripción hecha por el usuario es "Un robot preparándose para saltar". (Imagen: Universidad Carnegie Mellon)

Estos son rompecabezas fáciles de resolver para un humano, pero muy difíciles para un ordenador, aún teniendo los trozos aleatorios usados para generar el rompecabezas.

Para romper la contraseña del usuario offline, el atacante debe simultáneamente adivinar la contraseña del usuario y la respuesta del rompecabezas correspondiente. Un ordenador no puede hacerlo solo. Y si éste debe interactuar constantemente con un humano para resolver el rompecabezas, ya no puede explotar a fondo su fuerza bruta de cálculo.

El equipo de Jeremiah Blocki, Manuel Blum y Anupam Datta ha invitado a científicos especializados en seguridad informática a que intenten aplicar técnicas de inteligencia artificial para atacar el sistema de contraseñas GOTCHA. Su desafío GOTCHA está online aquí:

http://www.cs.cmu.edu/~jblocki/GOTCHA-Challenge.html

Diferencias entre Software Libre y Código Abierto

No es lo mismo Software Libre que Código Abierto, aunque haya grandes similitudes, fines similares o que una pueda englobarse dentro de la otra, y esto es debido que tanto la fundación FSF (Free Software Fundation o Fundación para el Software Libre) como la organización OSI (Open Source Initiative o Iniciativa para el Código Abierto) tienen reglas propias, para determinar la naturaleza de una licencia y si puede catalogarse de libre o de código abierto. Estas reglas, sean de la FSF o de la OSI, han de ser cumplidas todas y cada una de ellas, sin excepción.

En la FSF se define como software libre todo software que se distribuya bajo una licencia que cumpla con cuatro libertades:
- Libertad 0. Libertad de usar el programa, con cualquier propósito.
- Libertad 1. Libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades. El acceso al código fuente es una condición previa para esto.
- Libertad 2. Libertad de distribuir copias, con lo que puedes ayudar a tu vecino.
- Libertad 3. Libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie. El acceso al código fuente es un requisito previo para esto.
Por su parte la OSI a la hora de crear su definición de Código Abierto se basó en su en la DFSG de Debian (Debian Free Software Guidelines o Directrices de Software Libre de Debian) para crear una lista de 10 condiciones que debe cumplir una licencia para considerar si esta es para software calificable de código abierto:
- Condición 1. Libre redistribución: el software debe poder ser regalado o vendido libremente.
- Condición 2. Código fuente: el código fuente debe estar incluido u obtenerse libremente.
- Condición 3. Trabajos derivados: la redistribución de modificaciones debe estar permitida.
- Condición 4. Integridad del código fuente del autor: las licencias pueden requerir que las modifi modificaciones sean redistribuidas sólo como parches.
- Condición 5. Sin discriminación de personas o grupos: nadie puede dejarse fuera.
- Condición 6. Sin discriminación de áreas de iniciativa: los usuarios comerciales no pueden ser excluidos.
- Condición 7. Distribución de la licencia: de deben aplicarse los mismos derechos a todo el que reciba el programa
- Condición 8. La licencia no debe ser específi específica de un producto: el programa no puede licenciar licenciarse solo como parte de una distribución mayor.
- Condición 9. La licencia no debe restringir otro software: la licencia no puede obligar a que algún otro software que sea distribuido con el soft software abierto deba también ser de código abierto.
- Condición 10. La licencia debe ser tecnológi tecnológicamente neutral: no debe requerirse la aceptación de la licencia por medio de un acceso por clic de ratón o de otra forma específica del medio de soporte del software.
Es normal que, después de leer esto y ver que guardan demasiada similitud, ahora uno se pregun pregunte ¿por qué estos dos términos para designar a casi lo mismo?.
Pues bien, corría el año 1998 cuando el término Código Abierto empezó a escucharse dentro de la comunidad del software libre intentando hacer desaparecer la tendencia a tomar el freeware como si fuera software gratuito, puesto que el vocablo inglés free es algo ambiguo, significando a su vez libertad (correcto), y gratuidad (incorrecto). Sin embargo dentro de la FSF esta nueva forma de referirse al software libre no gustó demasiado pues, aunque alejaba el concepto de gratuidad, también parecía abandonar el concepto de libertad (freedom freedom): daba a entender que el ): código fuente estaba abierto (para verlo al menos), pero no in inducía a pensar que también el código es libre de ser usado, modificado y redistribuido de la misma forma y con los mismos derechos que el original, que es lo que defiende la FSF.
Actualmente Open Source se refiere a un movimiento distinto apoyado por la OSI dentro del movimiento general del Software Libre creado y apoyado por la FSF. Son aliados, no enemigos, pues persiguen unos objetivos similares, aunque no coincidan demasiado en sus principios básicos. Entre sus diferencias, se podría decir que la OSI es más “permisiva” que la FSF con las licencias, con lo que nos encontramos que un software bajo una licencia considerada de código abierto puede ser software libre, pero también puede ser un programa semilibre o incluso uno completamente no libre.