TIPO DE CAMBIO DEL DÍA
BANCARIO
C. $3.093 V. $3.097
C. 3.427 V. 3.543
INICIAR SESIÓN

Correo:



iniciar Sesion



CAPECE EN IMÁGENES
CAPECE en imagenes ACTUALIDAD Y NOVEDADES DEL COMERCIO ELECTRÓNICO EN EL PERÚ
ver mas
INFORMACIÓN
SERVICIOS EN LINEA


 
ENCUESTA

Quiero capacitarme en:


Comercio electrnico
Cloud computing
Marketing Digital
Desarrollo de Apps
Community Manager

Actualidad TIC
Protegen las computadoras de CERN con inteligencia artificial
Fecha: 26 June 2017, 12:10 am

En caso de ser intervenidas, la computadoras de CERN pueden ser utilizadas para minería de bitcoin y ataques DDoS, por ejemplo. Para neutralizar las constantes intrusiones, el departamento de TI de CERN está programando la red para distinguir entre tráfico normal e ilegítimo, escribe la publicación sea Scientific American.

Cada vez que se detecta una amenaza de seguridad, el sistema la registra y procede a bloquearla automáticamente, comenta Andrés Gómez, de CERN, que ha publicado un artículo científico sobre el tema.

Los antivirus corrientes no tienen la capacidad de proteger contra algunas amenazas, especialmente aquellas que cambian constantemente su código para eludir las herramientas tradicionales de seguridad. Esta situación llevó a CERN a diseñar un nuevo método, basado en aprendizaje automático, para reconocer y registrar el tráfico sospechoso antes que éste entre a la red. Un ejemplo en tal sentido es el tráfico que requiere gran ancho de banda sin existir una justificación aparente, o que utiliza procedimientos o puertos no autorizados en sus intentos por acceder a la red.

“Normalmente, los antivirus intentan impedir las intrusiones contra una computadora específica. En nuestra red es necesario proteger decenas de miles de máquinas, lo que hace posible para científicos externos utilizar una selección de software en sus distintos experimentos. Por tratarse de un modelo distribuido, y dado el gran volumen de los datos en el recolectados, la detección de intrusos se hace mucho más compleja”, comentó Gómez a la publicación.

Cylance realiza la primera presentación mundial de neutralización de ransomware en tiempo real

Google plantea necesidad de revisar el acceso policial a los datos
Fecha: 25 June 2017, 11:05 pm

Con el fin de prevenir ataques terroristas y facilitar las investigaciones de aquellos ya perpetrados, Google ha solicitado a los políticos estadounidenses aclarar la normativa que regula el acceso de las autoridades a los datos personales de sus usuarios, cuando estos han sido almacenados en servidores instalados fuera de ese país.

La iniciativa busca armonizar la legislación con la realidad actual, en que las organizaciones de TI y las autoridades deben dedicar considerable tiempo y recursos a requerir información, procesar el requerimiento y entregar los datos.

La propuesta de Google se produce de manera paralela a una iniciativa similar presentada por la Comisión Europea, aunque limitada sólo a los países de la UE.

Con ello, Google se suma a una iniciativa similar presentada por Microsoft. En los últimos años, ambas empresas han negado a las autoridades estadounidenses acceso a sus servidores situados fuera de Estados Unidos, cuando la orden judicial ha estado firmada únicamente por un juez de ese país. El razonamiento de los departamentos jurídicos de Google y de Microsoft ha sido que la legislación aplicable debe estar definida por la ubicación geográfica de los servidores, y no por la nacionalidad de la empresa propietaria de los mismos.

Google propone además elaborar procedimientos menos burocráticos, en que el acceso a los datos sea más expedito cuando exista fundamento jurídico. Asimismo, sugiere que los requerimientos de acceso no sean generales, sino específicos; por ejemplo, que los investigadores sólo requieran correos electrónicos con contenido determinado, y no acceso total a la cuenta del caso.

Fotografía (c) Turtix vía Shutterstock

Microsoft propone una “Convención de Viena digital”

Microsoft permitirá a sus clientes decidir dónde almacenar sus datos

AOS e IBM desarrollan solución para logística y transporte basada en Blockchain y Watson IoT
Fecha: 22 June 2017, 3:20 am

IBM (NYSE: IBM) y AOS, -empresa colombiana especializada en brindar soluciones de negocio con el uso de tecnologías de información- anunciaron hoy que están colaborando para crear una solución basada en blockchain y Watson IoT en la nube, para mejorar la eficiencia en el manejo de transacciones y cargas en la industria logística y de transporte de todo el país.

Blockchain funciona como un libro mayor inmutable que registra todas las transacciones entre una red de negocios. En el área logística, esto permite un intercambio seguro de información en todo el ciclo de transporte, para mayor transparencia en el registro de la información de los intercambios.

Tradicionalmente, las transacciones en la cadena de suministro son completadas manualmente, creando demoras y mayores riesgos de registrar información equivocada, lo que puede causar diferencias entre lo registrado y lo realmente cargado. Al digitalizar este proceso, utilizando Blockchain y IoT, la información relevante es capturada directamente desde los sensores instalados en los camiones, e ingresada en blockchain, creando un único repositorio que puede ser accedido con facilidad por todas las partes autorizadas, y que solo puede ser alterado si todos los involucrados así lo deciden.

Con esta solución, una vez que el camión sale del punto de distribución, se envía un mensaje automático al cliente, informando sobre la carga, el peso y el tiempo estimado de llegada. En el caso de que se devuelva parte de la entrega, se puede automatizar la facturación en función de la carga real entregada. Asimismo, a través de los sensores ubicados en los camiones, utilizando la tecnología IoT y blockchain, se hace seguimiento de todos los intercambios, paradas y transacciones realizadas por cada camión y su respectiva carga, desde la salida del depósito, hasta la entrega al cliente final.

Para AOS se trata de un proyecto de gran relevancia para toda la industria logística en el país. “El adecuado manejo y uso de la información sobre las transacciones e intercambios relacionados con las cargas, es clave para la industria logística y de transporte, por eso, nuestro principal objetivo con esta solución es brindar transparencia y seguridad en todo el ciclo de transporte”, asegura Ricardo Buitrago, Director de Innovación de AOS. “Hoy, la solución ya se encuentra disponible como un prototipo funcional en la nube de IBM, para empresas en el área de logística, cadena de suministro y transporte en todo Colombia”, agregó Buitrago.

La solución de AOS integra Watson IoT, diseñada para monitorear lo que sucede con los camiones carga; por ejemplo, capturando su peso de entrada y de salida, para definir la capacidad disponible, así como en qué silo y qué persona realizará la carga; y dichos datos también se correlacionan con información del clima, humedad, temperatura y de los conductores, para estimar los tiempos de entrega a los clientes.

“Uno de los más grandes desafíos de la industria logística y transporte es la protección de sus activos y cargas y el correcto seguimiento de todas las transacciones que involucran dichas cargas. Por eso, la implementación de este tipo de soluciones de blockchain y IoT en la nube es una oportunidad para acceder a datos críticos en cualquier momento, de forma transparente y tomar mejores decisiones, en beneficio de los negocios”, asegura Jorge Vergara, CTO de IBM Colombia.

A futuro, se espera que la solución incluya nuevas funcionalidades como el mecanismo de precinto electrónico para el control y seguimiento de las cargas terrestres.

IBM lanza un programa que acelera la adopción de blockchain

IBM y Bolsa de Valores de Santiago entregarán la primera solución de Blockchain para préstamos de valores del mundo

IBM lanza solución cloud de blockchain “lista para empresas”

Ilustración (c) Olga Donskaya vía Shutterstock
Blockchain podría ser el Santo Grial de la industria aeronáutica
Fecha: 22 June 2017, 2:42 am

Los fabricantes de aviones necesitan contar con conocimientos exhaustivos e irrefutables sobre el historial de los componentes de las aeronaves. Un sistema basado en Blockchain , que vincula a todas las empresas participantes en el proceso, podría impedir la utilización de componentes fraudulentos.

El tren de aterrizaje de los aviones, por poner un ejemplo, consiste de un gran número de componentes que deben ser fabricados, instalados y ocasionalmente reparados o sustituidos. En la vida útil del tren de aterrizaje es necesario documentar todas las empresas que de una u otra forma han estado relacionadas con tales procesos. El problema ha sido hasta ahora no contar con un sistema que proporcione una visión de conjunto, irrefutable, sobre el origen y ciclo de vida de cada uno de los componentes. La industria aeronáutica se dispone a solucionar esta situación utilizando la tecnología blockchain, escribe la publicación sueca Ny Teknik con base en una entrevista a Bas de Vos, director de la división de investigación científica de IF, proveedor de sistemas ERP para la industria aeronáutica de Suecia.

“La industria aeronáutica es altamente compleja y los aviones tienen un gran número de componentes”, dijo de Vos, quien luego hizo una pregunta retórica: “¿es posible estar siempre seguros de que un componente ha sido fabricado por Boeing, o se trata de una copia barata, de fabricación china?”. A juicio del experto, el santo grial de la industria aeronáutica es un sistema que proporcione documentación irrefutable sobre cada uno de los componentes.

IF ha iniciado un proyecto que estudiará el potencial de Blockchain en la industria aeronáutica. No se trata de la primera iniciativa de este tipo. Recientemente, Lufthansa presentó su proyecto BC4A (Blockchain for Aviation, o Blockchain para la Aviación), cuya idea es agrupar fabricantes de aviones, desarrolladores de software, autoridades y otras organizaciones interesadas, en torno a una iniciativa multidisciplinaria.

“Actualmente, la mayoría de los sistemas de TI funcionan en silos separados. No hay una forma expedita en que, por ejemplo, Boeing pueda acceder a los sistemas utilizados por KLM. La documentación disponible suele consistir de papeles, y es insuficiente”, comentó Bas de Vos.

La tecnología blockchain podría garantizar la seguridad y confiabilidad de las transacciones, evitando todo tipo de interferencia o modificaciones por parte de terceros. La tecnología es adecuada para la trazabilidad de productos o flujos financieros. Una vez que las informaciones han sido incorporadas a un bloque, éste adquiere carácter permanente y no puede ser removido ni modificado sin que concurran condiciones previamente definidas. Esto implica, básicamente, que para agregar un nuevo bloque a la cadena es necesario el consenso de los participantes, otorgado mediante un algoritmo. Todos los participantes en el proceso de blockchain reciben una copia, que sólo puede ser modificada mediante dicho consenso.

De Vos confía en que el proyecto derivará en un sistema estandarizado, que vinculará a todas las organizaciones participantes en la industria aeronáutica. “Tendremos entonces visibilidad compartida de la verdad de cada componente, desde el comienzo hasta el fin. Será una visibilidad en la que podremos confiar, y que resultará en gastos reducidos y mayores márgenes de ganancia. A la vez, resultará en menos aviones con vuelos suspendidos por decisión de las autoridades”, finalizó señalando el experto.

Microsoft anuncia el Santo Grial de la programación: el software infalible

Ilustración (c) Esteban de Armas vía Shutterstock

Cisco anuncia una red capaz de aprender, adaptarse y evolucionar
Fecha: 21 June 2017, 12:27 am

Diseñada para ayudar a las organizaciones a superar retos antes insalvables y a generar nuevas oportunidades de negocio en un mundo de imparable conectividad y tecnología distribuida, esta nueva red es el resultado de años de I+D de Cisco. Una innovación destinada a reinventar las redes para una nueva era donde se prevé que los ingenieros de red tengan que gestionar 1 millón de dispositivos a la hora en 2020, frente a los cientos de dispositivos que gestionan hoy.

“La red nunca ha sido más crítica para el éxito de los negocios, y tampoco ha estado sometida a tantas demandas como ahora”, destaca Chuck Robbins, CEO de Cisco. “Al construir una red más intuitiva, estamos creando una plataforma inteligente con la máxima seguridad para hoy y para el futuro, diseñada para fomentar la innovación de los negocios y generar nuevas oportunidades para las organizaciones y para las personas en cualquier lugar”.

En la actualidad, las organizaciones gestionan sus redes mediante procesos de TI tradicionales que no se corresponden con los nuevos tiempos. La estrategia de Cisco consiste en crear un sistema intuitivo que está siempre aprendiendo, adaptándose, automatizando y protegiendo, con el fin de optimizar las operaciones de red y defender a los negocios frente al actual panorama de amenazas continuamente cambiante.

“La solución Cisco Encrypted Traffic Analytics resuelve un problema de seguridad de red que se creía insalvable”, apunta David Goeckeler, vicepresidente senior y director general de Redes y Seguridad en Cisco. “Encrypted Traffic Analytics utiliza la inteligencia frente a ciber-amenazas de Cisco Talos para detectar ataques conocidos, incluso los ocultos en tráfico cifrado, ayudando a garantizar la seguridad mientras se mantiene la privacidad”.

Debido a que la gran mayoría del tráfico mundial de Internet atraviesa redes de Cisco, la compañía ha aprovechado esta posición única para capturar y analizar esta inmensa cantidad de datos valiosos, proporcionando a los departamentos de TI el conocimiento necesario para evitar anomalías y anticiparse a los problemas en tiempo real, sin comprometer la privacidad.

Al automatizar el extremo de la red e integrar capacidad analítica y machine learning como pilar base, Cisco consigue gestionar lo que antes no se podía y ayuda a que los departamentos de TI se centren en responder a las necesidades de negocio estratégicas.

Ya hay 75 organizaciones de todo el mundo realizando las primeras pruebas de campo con esta nueva generación de soluciones de red, incluyendo DB Systel GmbH, Jade University of Applied Sciences, NASA, Royal Caribbean Cruises, Scentsy, UZ Leuven y Wipro.

Informada por el contexto e impulsada por la intención

Con esta nueva aproximación, Cisco transforma la visión fundamental del networking. Mediante hardware rediseñado y el software más avanzado. Este cambio -desde una aproximación centrada en el hardware a otra basada en el software- permitirá a las organizaciones dar un salto exponencial en agilidad, productividad y rendimiento.

La red intuitiva es una plataforma inteligente y altamente segura informada por el contexto e impulsada por la intención o necesidad de negocio:

Contexto: interpretar los datos en su contexto es lo que permite a la red proporcionar nuevo conocimiento. No son sólo los datos lo importante, sino también el contexto que los rodea — el qué, quién, cómo, dónde y cuándo. La red intuitiva interpreta todo esto, mejorando la seguridad, facilitando experiencias más personalizadas y acelerando las operaciones.

Intención/necesidad de negocio: el networking auto-adaptable permite a los departamentos de TI pasar de los tediosos procesos manuales tradicionales a una automatización basada en la necesidad de negocio, permitiendo gestionar millones de dispositivos en minutos — un avance esencial para ayudar a las organizaciones a adaptarse a la constante evolución tecnológica.

Intuición/conocimiento predictivo: la nueva red proporciona funcionalidad de machine learning a escala. Cisco aprovecha la gran cantidad de datos que corren por sus redes a escala global, y mediante machine learning integrado, proporciona conocimiento predictivo y útil.

Tecnologías clave

Cisco Digital Network Architecture (DNA) ofrece un porfolio integrado de hardware y software de última generación para convertir la nueva era del networking en realidad. Cisco anuncia hoy una suite de tecnologías y servicios de Cisco DNA que trabajan conjuntamente como un único sistema y permiten a las organizaciones acelerar su transformación digital:

DNA Center. Cuadro de mandos intuitivo y centralizado que permite a los departamentos de TI gestionar la red de manera auto-adaptable en función de la necesidad de negocio, incluyendo el diseño, la provisión, la aplicación de políticas y el mantenimiento. Con una completa visibilidad y contexto de extremo a extremo, DNA Center permite centralizar la gestión de todas las funciones de red.

Software-Defined Access (SD-Access). SD-Access automatiza el reforzamiento de políticas y la segmentación de red sobre un único fabric para simplificar enormemente el acceso para usuarios, dispositivos y objetos. Al automatizar las tareas cotidianas como configuración, provisión y resolución de problemas, SD-Access reduce significativamente el tiempo que se tarda en adaptar la red (de meses y semanas a horas), mejora la resolución de problemas y reduce drásticamente los posibles problemas de brechas de seguridad.

Los primeros análisis con clientes en pruebas de campo y estudios internos desvelan que SD-Access reduce los tiempos de provisión de red un 67%, mejora la resolución de problemas un 80%, minimiza los posibles problemas de brechas de seguridad un 48% y reduce los costes operativos un 61%.

Network Data Platform and Assurance. Esta innovadora y potente plataforma analítica categoriza y correlaciona con eficiencia la gran cantidad de datos que atraviesan la red, y utiliza machine learning para convertirlos en analítica predictiva, inteligencia de negocio y conocimiento útil proporcionado a través del servicio DNA Center Assurance.

Encrypted Traffic Analytics. En la actualidad, casi la mitad de los ciber-ataques se ocultan en tráfico cifrado, y este número sigue aumentando. Al utilizar la ciber-inteligencia de Cisco Talos y funcionalidad de machine learning para analizar los metadatos y patrones de tráfico, la red puede identificar los ataques conocidos, incluso los ocultos en tráfico cifrado y sin necesidad de desencriptar. Sólo Cisco permite detectar amenazas en tráfico cifrado con hasta un 99% de precisión y menos del 0,01% de falsos positivos. Como resultado, la nueva red proporciona seguridad mientras mantiene la privacidad.

Porfolio de switches Catalyst 9000. Cisco anuncia una nueva familia de switches construidos desde el principio para la era digital, centrada en las demandas de movilidad, Cloud, IoT y seguridad. Cisco Catalyst 9000 proporciona la máxima seguridad, capacidad de programación y rendimiento mediante innovaciones de hardware (ASIC) y de software (sistema operativo IOS XE).

Suscripción de software. Cisco convierte ahora el modelo de licenciamiento de software mediante suscripción en parte esencial del porfolio estrella de switches para campus. Al adquirir la nueva familia de switches Catalyst 9000, los clientes dispondrán de las capacidades de software de DNA mediante suscripción, bien a través de suites de software Cisco ONE pre-integradas o mediante componentes ‘a la carta’. Disponible para todo el porfolio Enterprise Networking, Cisco ONE software proporciona a las organizaciones innovación continua, inversión predecible y un modelo más ágil de acceso a la tecnología.

Servicios DNA. Para ayudar a los clientes a dar el salto a la red intuitiva de forma rápida y segura, Cisco ha diseñado una nueva gama de servicios basados en la contrastada experiencia de la compañía, las mejores prácticas y herramientas innovadoras. Tanto si las organizaciones pretenden transformar su red por completo como integrar nuevas funcionalidades de seguridad y automatización en su actual red, Cisco ofrece un completo abanico de servicios de asesoría, implementación, optimización y servicios técnicos para ayudarles en esta evolución. Los partners de canal de Cisco pueden también ofrecer estos servicios y construir mejores prácticas de networking que incorporen software, seguridad, automatización y analítica para sus clientes.

Developer Center. Cisco anuncia también un nuevo Centro de Desarrolladores DNA integrado en DevNet, con recursos para ayudar a los desarrolladores y a los profesionales de TI a crear aplicaciones de red e integrarlas con sus actuales sistemas y flujos de trabajo de TI. Esto incluye componentes de formación, sandboxes y recursos de soporte para facilitar el uso de APIs y mejorar las habilidades de los desarrolladores.

Disponibilidad

Junio 2017 – Catalyst 9300 & 9500 Series (se puede solicitar)
Julio 2017 – Catalyst 9400 Series (se puede solicitar)
Agosto 2017 – DNA Center, SD Access (disponibilidad limitada)
Septiembre 2017 – Encrypted Traffic Analytics (prevista disponibilidad)
Noviembre 2017 – Network Data Platform (se puede solicitar), Assurance (prevista disponibilidad), SD-Access (prevista plena disponibilidad)

Cisco e IBM anuncian alianza para combatir el ciber-crimen

Ilustración: captura Cisco
¿Cuánto le cuesta a una compañía una violación de datos?
Fecha: 20 June 2017, 10:42 pm

IBM Security (NYSE: IBM) anunció los resultados de un estudio global que explora las implicaciones y los efectos de las brechas de datos en los negocios. Patrocinado por IBM Security y realizado por Ponemon Institute, el estudio encontró que el costo promedio de una violación de datos es de $3,62 millones de dólares a nivel mundial, una disminución del 10 por ciento a partir de los resultados de 2016. Esta es la primera vez, desde la creación del estudio, en que ha habido una disminución general en el costo. Según el reporte, estas brechas de datos cuestan a las compañías en promedio $141 dólares por registro perdido o robado.

Al analizar los 11 países y las dos regiones encuestadas en el informe, IBM Security identificó una estrecha correlación entre la respuesta a los requerimientos regulatorios en Europa y el costo total de una violación de datos. Los países europeos vieron una reducción del 26 por ciento en el costo total de una violación de datos sobre el estudio del año pasado. Las empresas en Europa operan en un entorno regulatorio más centralizado, mientras que las empresas en Estados Unidos tienen requisitos únicos, con 48 de 50 estados que tienen sus propias leyes de violación de datos. Responder a una multitud de requisitos reglamentarios y reportar a potencialmente millones de consumidores afectados puede ser una tarea extremadamente costosa y que requiera muchos recursos.

Según el estudio sobre el costo de la brecha de datos en 2017, los “fallos en el cumplimiento” y la “precipitación para notificar” se encontraban entre las cinco razones principales por las que el costo de una infracción aumentó en Estados Unidos. Una comparación de estos factores sugiere que las actividades regulatorias en Estados Unidos podrían costar a las empresas más por récord en comparación con Europa. Por ejemplo, los fallos de cumplimiento costaron a las empresas estadounidenses un 48 por ciento más, mientras que la precipitación para notificar costó a los negocios estadounidenses un 50 por ciento más que a las empresas europeas. Adicionalmente, compañías estadounidenses reportaron haber pagado más de $690,000 dólares en promedio por los costos de notificación relacionados con una brecha- que es más del doble que cualquier otro país encuestado en el reporte.

“Los nuevos requisitos regulatorios como el GDPR en Europa suponen un desafío y una oportunidad para las empresas que buscan gestionar mejor su respuesta ante las brechas de datos”, dijo Wendi Whitmore, Jefe Global de Servicios de Inteligencia y Respuesta a Incidentes (IRIS) de IBM X-Force. “Identificar rápidamente lo que ha sucedido, a lo que el atacante tiene acceso y cómo contener y eliminar su acceso es más importante que nunca. Con eso en mente, tener un plan integral de respuesta a incidentes es fundamental, por lo que cuando una organización experimenta un incidente, pueden responder con rapidez y eficacia”.

El costo de una violación de datos no desciende en todas partes

En el estudio global de 2017, el costo total de una brecha de datos disminuyó a $3,62 millones de dólares, un 10 por ciento menos que los 4 millones de dólares del año pasado. Sin embargo, muchas regiones experimentaron un mayor costo de una violación de datos – por ejemplo, el costo de una brecha en Estados Unidos fue de $7.35 millones, un aumento del cinco por ciento en comparación con el año pasado. Sin embargo, Estados Unidos no fue el único país que experimentó un alza de costos en 2017.

– Las organizaciones en Medio Oriente, Japón, Sudáfrica e India experimentaron un aumento de los costos en 2017 en comparación con los costos promedio de cuatro años.

– Alemania, Francia, Italia y Reino Unido experimentaron disminuciones significativas en comparación con los costos promedio de cuatro años. Australia, Canadá y Brasil también experimentaron menores costos en comparación con el costo promedio de cuatro años de una violación de datos.

En comparación con otras regiones, las compañías estadounidenses experimentaron las brechas de datos más caras en el informe de 2017.

– En Medio Oriente, las organizaciones vieron el segundo mayor costo promedio de una brecha de datos con $4.94 millones de dólares, más del 10 por ciento de aumento respecto al año anterior.

– Canadá fue el tercer país más costoso por brechas de datos, lo que costó a las organizaciones un promedio de $4,31 millones de dólares.

– En Brasil, las brechas de datos fueron las menos costosas en general, costando a las compañías sólo $1,52 millones de dólares.

Tiempo es dinero: Conteniendo las brechas de datos

Por tercer año consecutivo, el estudio encontró que tener un equipo de Respuesta a Incidentes (IR, por sus siglas en inglés) redujo significativamente el costo de una violación de datos, ahorrando más de $19 dólares por récord perdido o robado. La velocidad a la cual una brecha puede ser identificada y contenida es en gran parte responsabilidad de un equipo de IR, así como el tener un plan formal de Respuesta a Incidentes. Los equipos de IR pueden ayudar a las organizaciones a navegar por los aspectos complicados de contener una brecha de datos para mitigar pérdidas adicionales.

Según el estudio, la rapidez con que una organización puede contener incidentes de violación de datos tiene un impacto directo en las consecuencias financieras. El costo de una violación de datos fue de casi un millón más bajo en promedio para las organizaciones que fueron capaces de contener una violación de datos en menos de 30 días en comparación con los que tardaron más de ese tiempo.

Con tan significativos ahorros de costos, el estudio reveló que hay espacio para mejorar en las organizaciones cuando se trata de tiempo para identificar y responder a una brecha. En promedio, las organizaciones tomaron más de seis meses para identificar un incumplimiento y más de 66 días adicionales para contener una brecha una vez descubierto.

Hallazgos clave adicionales

Las violaciones en la industria de la salud son las más costosas: Por séptimo año consecutivo, la asistencia sanitaria ha encabezado la lista como la industria más cara para las brechas de datos. Las infracciones de los datos sanitarios cuestan $380 por registro, más de 2,5 veces el promedio mundial entre industrias ($141 por registro).

Factores principales en el aumento del costo de una brecha: La participación de terceros en una violación de datos fue el principal factor contribuyente que llevó a un aumento en el costo de una brecha de datos, aumentando el costo $17 dólares por registro. Las organizaciones necesitan evaluar la postura de seguridad de sus proveedores, desde nómina hasta proveedores de nube y CRM, para garantizar la seguridad de los datos de los empleados y los clientes.

Factores principales que reducen el costo de un incumplimiento: La respuesta a los incidentes, el cifrado y la educación fueron los factores que mostraron el mayor impacto en la reducción del costo de una violación de datos. Tener un equipo de respuesta a incidentes en el lugar resultó en una reducción de $19 dólares en el costo por registro perdido o robado, seguido por el uso extensivo del cifrado ($16 de reducción por registro) y capacitación de los empleados ($12.50 por récord).

Impacto positivo de la orquestación de resiliencia: Los programas de continuidad de negocio están reduciendo significativamente el costo de una violación de datos. El costo promedio general de incumplimiento de datos por día se estima en $5,064 dólares en el estudio de este año. Las empresas que tienen un proceso de recuperación de desastres operado manualmente experimentaron un costo promedio estimado de $6,101 por día. Por el contrario, las compañías que implementan un proceso automatizado de Recuperación de Desastres que proporciona una orquestación de resiliencia experimentaron un costo promedio por día de $4,041. Esto representa una diferencia neta de 39 por ciento (o un ahorro de costos de $1,969 dólares por día).

IBM-Ponemon

Ilustración: captura del informe de IBM y Ponemon Institute.

Fotografía (c) Julius Kielaitis vía Shutterstock
Vuelve la esteganografía como herramienta de ciberataques
Fecha: 19 June 2017, 11:33 pm

McAfee Inc. ha dado a conocer su informe de amenazas McAfee Labs Threats Report: June 2017, que examina el origen y el funcionamiento interno del ladrón de contraseñas Fareit, analiza los 30 años de historia de las técnicas de evasión utilizadas por los autores de malware, explica el concepto esteganografía como técnica de evasión, evalúa los ataques en diferentes industrias y, por último, revela las tendencias en crecimiento del malware, ransomware, malware móvil y otras amenazas acaecidas en el primer trimestre de 2017.

“Hay cientos, si no miles, de técnicas de evasión anti-seguridad, anti-sandbox y anti-analista que son utilizadas por los autores de malware y que pueden ser adquiridas en la Dark Web”, afirma Vicent Weafer, vicepresidente de McAfee Labs. “El informe de este trimestre nos recuerda que la evasión ha evolucionado, desde el intento de ocultar simples amenazas ejecutándose en un solo contenedor, hasta ocultar amenazas complejas dirigidas a entornos empresariales durante un periodo prolongado de tiempo y a paradigmas completamente nuevos como técnicas de evasión diseñadas para el ‘machine learning’.

30 años de técnicas de evasión de malware

Los desarrolladores de malware comenzaron a experimentar con diversas técnicas con el objetivo de esquivar los productos de seguridad en los años 80, cuando un ejemplar de malware se defendió cifrando parcialmente su propio código; de este modo, su contenido fue ilegible para los analistas de seguridad. El término “evasión técnica” engloba todos los métodos utilizados por el malware para evitar su detección, análisis y comprensión. McAfee Labs clasifica las técnicas de evasión en tres grandes categorías:

• Técnicas anti-seguridad. Se utilizan para evitar la detección por parte de motores antimalware, contención de aplicaciones u otras herramientas que protegen el entorno.

• Técnicas anti-sandbox. Se utilizan para detectar el análisis automático y esquivar a los motores que informan sobre el comportamiento del malware. La detección de las claves del registro, archivos o procesos relacionados con entornos virtuales permite al malware saber si se está ejecutando en un sandbox.

• Técnicas anti-analista. Se utilizan para detectar y engañar a los analistas de malware. Por ejemplo, detectando herramientas de monitorización como ‘Process Explorer’ o ‘Wireshark’.

El informe de McAfee Labs de junio 207 analiza alguna de las técnicas de evasión más potentes, el sólido mercado oscuro de la tecnología de evasión, cómo las nuevas familias de malware aprovechan estas técnicas y las perspectivas de futuro, incluyendo la evasión del ‘machine learning’ y de hardware.

Ocultos a plena vista: La amenaza de la esteganografía

La esteganografía es el arte y la ciencia de ocultar mensajes secretos. En el mundo digital, se trata de una práctica que consiste en esconder mensajes dentro de imágenes, pistas de audio, vídeos o archivos de texto. En muchas ocasiones, la esteganografía digital es usada por los cibercriminales para evitar la detección por parte de los sistemas de seguridad. El primer uso conocido de esta técnica en un ciberataque fue en el malware Duqu en 2011. Utilizando una imagen digital, la información secreta se inserta mediante un algoritmo de incrustación, la imagen se transmite al sistema de destino y se extrae la información secreta para que sea usada por el malware. La imagen alterada es, a menudo, difícil de detectar por el ojo humano y por la tecnología de seguridad.

McAfee Labs concibe la esteganografía como la forma más novedosa dentro de esta disciplina, como los campos no utilizados dentro de los encabezados de protocolo TCP/IP que son utilizados para ocultar los datos. Este método está en auge debido, principalmente, a que los atacantes pueden enviar una cantidad ilimitada de información a través de la red usando esta técnica.

Fareit: El ladrón de contraseñas más infame

Fareit apareció por primera vez en 2011. Desde entonces, ha evolucionado en una amplia variedad de formas, incluyendo nuevos vectores de ataque, arquitectura y funcionamiento interno mejorados, y nuevas formas para evitar la detección. Existe un consenso generalizado al considerar que Fareit (el malware de robo de contraseñas más infame), fue utilizado en la brecha al Comité Nacional Demócrata antes de las elecciones a la presidencia de Estados Unidos en 2016.

Fareit se propaga a través de mecanismos como correos electrónicos de phishing, envenenamiento de DNS o exploit kits. Una víctima podría recibir un correo electrónico no deseado que contenga un documento Word, JavaScript o un archivo comprimido como adjunto. En el momento en el que el usuario abre el archivo adjunto, Fareit infecta el sistema, enviando credenciales robadas a su servidor de control y descargando el malware.

La brecha DNC de 2016 fue atribuida a una campaña de malware conocida como Grizzly Steppe. McAfee Labs identificó indicios de Fareit en la lista de indicadores comprometidos publicada en el informe Grizzly Steppe del Gobierno de los Estados Unidos. Se cree que la cepa Fareit es específica para el ataque de DNC y ha aparecido en documentos maliciosos de Word extendidos a través de campañas de correo electrónico de phishing.

El malware hace referencia a varias direcciones de servidor de control que no se observan normalmente en las muestras de Fareit encontradas. Probablemente fue utilizada junto a otras técnicas en el ataque DNC para robar emails, FTP y otras credenciales importantes. McAfee Labs sospecha que Fareit también descargó amenazas más avanzadas como Onion Duke y Vawtrak entre los sistemas de las víctimas con el objetivo de llevar a cabo nuevos ataques.

“Los usuarios, empresas y gobiernos son cada vez más dependientes de sistemas y dispositivos que están protegidos sólo por contraseñas. Estas credenciales son débiles o pueden ser fácilmente robadas, convirtiéndolas en un objetivo atractivo para los ciberdelincuentes”, señala Weafer. “McAfee Labs cree que los ataques basados en robo de contraseñas continuarán creciendo hasta que se realice la transición de autenticación de dos factores para el acceso a los sistemas. La campaña de Grizzly Steppe es un adelanto de las nuevas y futuras tácticas.”

Primer trimestre 2017, actividad de las amenazas

En el primer trimestre de 2017, la red global de inteligencia de amenazas de McAfee Labs registró un notable crecimiento de las ciberamenazas e incidentes relacionados con ciberataques a diferentes industrias.

• Nuevas amenazas. En el primer trimestre de 2017, se registraron 244 nuevas amenazas cada minuto, más de cuatro cada segundo.

• Incidentes de seguridad. McAfee Labs registró 301 incidentes de seguridad que fueron difundidos públicamente en el Q1, un aumento del 53% respecto al cuarto trimestre de 2016. Los sectores salud, administraciones públicas y educación representan más del 50% del total.

• Malware. El número de nuevas muestras de malware se ha incrementado en el primer trimestre alcanzando los 32 millones. El número total de muestras de malware ha aumentado en un 22% en los últimos cuatro trimestres, alcanzando los 670 millones de muestras conocidas.

• Malware móvil. Los informes de malware móvil de Asia se han duplicado en el primer trimestre, contribuyendo a un crecimiento del 57% del índice de infección mundial. El total de malware móvil ha crecido en un 79% en los últimos cuatro trimestres alcanzado los 16,7 millones de muestras. La mayor contribución a este crecimiento fue Android/SMSreg, un programa potencialmente no deseado detectado en India.

• Malware para Mac OS. Durante los últimos tres trimestres, el nuevo malware para Mac OS ha sido potenciado por un exceso de adware. Aunque sigue siendo pequeño en comparación con las amenazas de Windows, el número total de muestras de malware de Mac OS creció un 53% en el primer trimestre.

• Ransomware. Las nuevas muestras de ransomware se han disparado durante el primer trimestre debido a los ataques de ransomware de Congur en dispositivos con sistema operativo Android. El número total de muestras de ransomware ha crecido en un 59% en los últimos cuatro trimestres alcanzando 9,6 millones de muestras conocidas.

• Spam botnes. En abril, el cerebro del botnet Kelihos fue arrestado en España. Kelihos fue el responsable durante muchos años de millones de mensajes de spam que llevaban malware bancario y ransomware. El Departamento de Justicia de Estados Unidos reconoció la cooperación internacional entre autoridades estadounidenses y extranjeras, la Fundación Shadow Server y proveedores de la industria.

Para más información acerca de estos temas o más estadísticas sobre el panorama de riesgo durante el Q1 de 2017, visite http://www.mcafee.com/ o acceda al informe completo (no requiere registro).

Ilustración: captura del informe
Cómo la inteligencia artificial está ganando protagonismo en el sector del data center
Fecha: 19 June 2017, 10:35 am

La Inteligencia Artificial ha llegado definitivamente. Después de años de estancamiento e investigación, esta modalidad está experimentando un verdadero boom con grandes oportunidades para las empresas. ¿Pero qué significa exactamente para el negocio del data center?

La Inteligencial Artificial (IA) tiene todo el potencial para cambiar el sector TI. Podemos simular el aprendizaje, sacar conclusiones y reproducir la forma en la que se comunican los humanos con la ayuda de un nuevo software. Los sistemas IA son capaces de responder preguntas de manera natural, buscando en diferentes bases de datos y proporcionar respuestas en el menor tiempo posible. Los resultados son impresionantes y generan verdaderos beneficios empresariales. Incluso los dispositivos móviles más básicos ya cuentan con sistemas de inteligencia artificial instalados. Estoy seguro de que muchos de nosotros contamos con smartphones equipados con funciones de habla o reconocimiento facial, que están basados en algoritmos de aprendizaje automático.

Sin embargo, la IA está compuesta de mucho más que algoritmos de aprendizaje automático. También necesita de diferentes métodos y campos especializados. Entre ellos, sistemas basados ​​en el conocimiento, así como los campos de la robótica y el reconocimiento de patrones. El Lenovo Smart Assistant es un buen ejemplo de un proceso de aprendizaje profundo, como el reconocimiento de objetos en las fotos. En los últimos tiempos, éste se ha convertido en uno de los procesos de aprendizaje automático que más usan las compañías tecnológicas.

El enorme potencial de la inteligencia artificial

Multitud de analistas confirman el gran potencial de la inteligencia artificial cuando se trata de las aplicaciones empresariales y la mejora de la posición competitiva de la empresa. Según un estudio llevado a cabo por Crisp Research, empresa de investigación de mercados, un 64% de los responsables de la toma de decisiones en empresas de TI están abordando temas de aprendizaje automático y otras tecnologías de inteligencia artificial, y alrededor del 20% están utilizando el aprendizaje automático de forma productiva.

Nuestra motivación más importante es siempre aumentar la lealtad del cliente. La IA puede convertirse en nuestro gran aliado al simplificar la comunicación con clientes, usando asistentes digitales y de sonido natural, y evaluando el comportamiento potencial del usuario. Aunque los sistemas de inteligencia artificial no sólo sirven para atención al cliente, también son tremendamente útiles en la industria, y se están usando cada vez más en la transformación digital de las empresas, desde el control inteligente del equipo de producción hasta el control de dispositivos conectados.

Sistemas hiperconvergentes

Además de los avances teóricos, tecnológicos y de software, los nuevos ordenadores y el hardware moderno son actualmente capaces de procesar rápidamente grandes cantidades de datos, haciendo que los sistemas de IA sean útiles en muchas aplicaciones diferentes. Y lo primero que las empresas deben hacer para prepararse para la IA es actualizar sus centros de datos.

La hiperconvergencia es fundamental para este fin, porque hace posible que los sistemas locales en las instalaciones, los centros de datos externos y los servicios en la nube se integren perfectamente y de forma segura. Estos sistemas hiperconvergentes permiten escalar el almacenamiento y la potencia de cálculo de forma flexible para que puedan adaptarse a las necesidades cambiantes de cada momento. También proporcionan a las empresas la opción de mover grandes cantidades de datos a la nube y, cuando es necesario, transferirlos de un lado a otro entre sistemas locales y remotos.

En los próximos años, las aplicaciones de IA van a cambiar significativamente las industrias de servicios, especialmente en temas relacionados con atención al cliente, pero también los procesos industriales. Para ello, sin embargo, necesitan tener arquitecturas de IT que proporcionen el rendimiento necesario, la velocidad y los recursos para procesar grandes cantidades de datos, y así seguir formando parte de un mercado muy competitivo en el que ya estamos inmersos.

Por Ángel Ruiz, director de Lenovo Data Center para España y Portugal

Diez razones por las que los CIO deben considerar el código abierto
Fecha: 19 June 2017, 5:15 am

El código abierto influye estratégicamente en las empresas. De acuerdo con una encuesta realizada por North Bridge & Black Duck, el 90% de las empresas participantes afirmó depender de éste para mejorar su eficiencia, innovación e interoperabilidad. A esto se suman otros valores percibidos como la flexibilidad, no depender de un solo proveedor, las capacidades técnicas competitivas, la agilidad para adaptarse y la calidad.

Si se observa el entorno de negocios mundial, uno se puede dar cuenta de que las empresas emergentes (startups) más exitosas no utilizan software propietario sino abierto, lo que les brinda una mayor capacidad de innovar y madurar. Por su parte, las empresas tradicionales y monolíticas han descubierto que no pueden quedarse fuera del juego y están recurriendo al open source, a fin de impulsar su competitividad, reaccionar a los cambios del mercado y satisfacer a sus clientes.

Este escenario les ha planteado a los responsables de dirigir las iniciativas tecnológicas – los directores de Tecnologías de Información (CIO) – el desafío de abrirse a nuevas posibilidades y dejar atrás la percepción que el resto de las unidades de negocio tienen de ellos: ser quienes mantienen las cosas funcionando y que se niegan a implementar soluciones abiertas.

Hoy, los CIO tienen la oportunidad de agilizar la entrada de sus empresas a la era digital. Si algunos de estos líderes aún están renuentes a integrar el código abierto en sus proyectos, a continuación, se presentan 10 razones para dar el paso.

1. Seguridad
Las empresas pueden incrementar su seguridad si utilizan código abierto, gracias a que más profesionales y desarrolladores supervisan constantemente su integridad. El trabajo de las comunidades open source es mantener el control de las soluciones abiertas, así como monitorear y solucionar las vulnerabilidades.

2. No depender de un solo proveedor
Los estándares abiertos evitan depender de un solo proveedor de software. Además, tienen la libertad de reemplazar una pieza del código abierto por otro si éste es más innovador. Además, la habilidad que obtienen las organizaciones para gestionar sus sistemas abiertos permite reducir las fallas y lograr una mejor consolidación de sus componentes.

3. Tecnología de punta
En los ecosistemas de código abierto participa una gran comunidad de usuarios y proveedores, por lo que el gobierno y control de un proyecto no los acapara una sola parte. De hecho, la ingeniería y desarrollo que se realiza dentro de las comunidades tiene un beneficio directo en las organizaciones y, al mismo tiempo, se evita el riesgo de depender de software inmaduro.

4. Soporte amplio
Algo que siempre ha preocupado a los CIO es la rapidez de respuesta del equipo de soporte (help desk) de las compañías de tecnología. En el mundo del código abierto, hay disponible soporte de clase empresarial; existen firmas como Red Hat que pueden brindar servicios de manera expedita y constante para llevar un proyecto open source a una implementación exitosa, así como consultoras y grupos de desarrolladores distribuidos por todo el mundo. Al tener mayor número de opciones, es posible negociar precios más flexibles.

5. Personal especializado a la mano
Son cada vez más las universidades en el mundo que están integrando el código abierto en sus planes de estudio. Y a medida que aumenta su uso en las empresas, son más los profesionales certificados –en Linux, Hadoop y OpenStack– que se integran al equipo liderado por los CIO. De igual modo, los líderes de TI pueden contar con una reserva de especialistas con diferentes niveles de experiencia, capaces de ocupar las posiciones disponibles.

6. Menores costos
Los CIO pueden ahorrar en rubros como licenciamiento, mantenimiento y soporte. El costo total de propiedad del código abierto normalmente es mucho menor al del software propietario debido a que los proveedores comerciales imponen, entre otras cosas, una cuota por concepto de pruebas industriales.

7. Menos acuerdos legales
El equipo de desarrolladores del CIO puede tener acceso sencillo al código abierto desde repositorios como Github o GitLab, sin tener que firmar onerosos acuerdos legales. Y es que a medida que un mayor número de personas usan y prueban el software abierto, se descubren más pronto problemas y vulnerabilidades y, en consecuencia, se resuelven en el corto plazo.

8. Amplio respaldo de herramientas y grupos de expertos
Los proyectos de código abierto son numerosos en todo el planeta – empresas y gobiernos son ahora casos prácticos reconocidos; sus logros y beneficios están teniendo resonancia en medios digitales e impresos. Cuanto más popular es el proyecto, mayor es la experiencia en el uso del software abierto así como la disponibilidad de herramientas para el monitoreo, el análisis de registros y la gestión de configuraciones.

9. Es más sencillo hacer extensiones internamente
El código abierto les da flexibilidad a los desarrolladores. Por ejemplo, pueden “tomar” un programa que contenga una copia del código ya escrito, trabajar en él y tratarlo como un proyecto totalmente separado. Asimismo, pueden darle un nuevo nombre, y los cambios que se le hagan se reflejarán sólo dentro de esa “extensión”. Los desarrolladores realizan este proceso con frecuencia, pues muchas veces las organizaciones quieren desarrollar versiones a la medida de my SQL, por ejemplo, para su propio uso y no desean compartirlas.

10. Sin restricciones geográficas
En ciertos países hay restricciones en cuanto al licenciamiento del software comercial, y el CIO también se puede topar con licencias regionales que imponen límites. Con el código abierto esas limitaciones son inexistentes, lo cual permite realizar proyectos globales, así como hacer negocios y colaborar con otras empresas en cualquier lugar del mundo.

De la mano de los líderes de TI, las empresas de todos los sectores pueden realizar el trayecto hacia su transformación digital. De hecho, hoy el 100% de las compañías Fortune 500 de las industrias de banca, servicios financieros, salud, telecomunicaciones y aviación innovan, desarrollan y responden rápidamente a los cambios de su entorno de negocios gracias a la agilidad que le dan las soluciones empresariales de código abierto de Red Hat.

En México, organismos como el Gobierno del Estado de Jalisco, la Bolsa Mexicana de Valores (BMV), el Instituto de la Función Registral del Estado de México (IFREM), y la Universidad Autónoma Metropolitana (UAM) son casos de referencia respecto al uso y aprovechamiento del código abierto en entornos de negocio.

Por Olivia Salas, Regional Marketing Manager de Red Hat México

Amazon y Microsoft dominan el mercado Cloud – IBM y Google, aún “visionarios”
Fecha: 19 June 2017, 3:31 am

El mercado de la nube está dominado por dos actores: Amazon Web Services y Microsoft Azure. Todas las demás empresas se ven en la necesidad de encontrar nichos específicos o esforzarse sobremanera por conseguir alguna relevancia.

Tal es la conclusión principal de la última versión del análisis de Gartner sobre el cuadrante mágico del mercado de la Infraestructura como Servicio (IaaS). En este punto, cabe señalar que la definición de Gartner sobre IaaS en comparación con Plataforma como Servicio (PaaS), no es, necesariamente, ideal para hacerse una idea cabal sobre el sector Cloud, especialmente para las grandes empresas, donde plataformas como SAP u Oracle tienen máxima relevancia al momento de definir la estrategia para la nube.

Precisamente Oracle es colocada por Gartner en la categoría de “visionarios” de su cuadrante mágico, junto a IBM, Google y Alibaba Cloud. En su cuadrante, la consultora intenta clasificar a los proveedores de servicios Cloud con base en dos dimensiones: cuanto han avanzado con su visión, y la forma en que planean llevarla a cabo. Este es un parámetro relativo, que es definido en conformidad con los criterios de Gartner.

Esta perspectiva puede resultar en que en un proveedor destaque en algunos puntos, pero que al ser comparado con la empresa que tiene el mejor desempeño total vea debilitada su posición. La empresa que indudablemente define los estándares, en su condición de lider, es Amazon mediante su subsidiaria AWS.

Google es la única empresa que, a juicio de Gartner, se acerca el cuadrante liderado por Amazon y Microsoft. Al respecto, la consultora indica que Google ha iniciado un tránsito, desde una plataforma con una cuantiosa oferta para desarrolladores y “aplicaciones nacidas en la nube”, a prestaciones más bien infraestructurales, donde Google se ha abocado a una agresiva guerra de precios contra Amazon.

El proveedor con el desempeño más débil es IBM, que a pesar de tener una posición de vanguardia en el eje visionario, muestra lentitud en la ejecución. Cabe recordar que Gartner considera IaaS en su conjunto, y por lo tanto hay áreas en que los servicios de IBM están mejor posicionados que aquellos de la competencia.

Para el caso de Oracle, Gartner sugiere la empresa apostar por servicios específicos en lugar de ofrecer infraestructura en general, como capacidad de cálculo y almacenamiento, donde Amazon tiene una posición muy difícil de alcanzar o, peor aún, rebasar. En este punto, Gartner coincide con AWS, cuyo CEO James Hamilton calificó recientemente de “tonterías” la siguiente declaración de su homólogo en Oracle, Max Hurd: “Oracle no necesita gastar lo mismo que AWS, Microsoft y Google en centros de datos debido a que utilizamos mejor hardware y software”.

Ilustración: Gartner

Oracle: “No necesitamos tantos centros de datos porque tenemos mejor hardware y software”; AWS: “Tonterías”

Fotografía (c) Jejim vía Shutterstock


Titulares de DiarioTi.com. © Copyright 1997-2009.
   
Nuestras cámaras de comercio electrónico hermanas
Copyright © 2011
Todos los derechos reservados
Contacto:
(+511) 431.0885
Desarrollado por: