Archive for 28 agosto 2010

Amenazas de seguridad alcanzan niveles récord

agosto 28, 2010

Se registró un aumento del 36% en las revelaciones de vulnerabilidad durante el primer semestre del 2010.

Diario Ti: IBM dio a conocer los resultados de su Reporte de Mitad de Año de Tendencias y Riesgos X-Force 2010, que muestra cómo las revelaciones de vulnerabilidad están incrementando dramáticamente, habiendo llegado a niveles récord para la primera mitad del 2010.

En general, 4,396 nuevas vulnerabilidades fueron documentadas por el equipo de Investigación y Desarrollo de X-Force durante la primera mitad del 2010, un incremento del 36 por ciento en relación al mismo período del año pasado. Más de la mitad, 55 por ciento, de todas estas vulnerabilidades reveladas, no contaban con un parche suministrado por proveedor al final del período.

De acuerdo al reporte, las vulnerabilidades de aplicaciones Web continuaron siendo la principal amenaza, representando más de la mitad de todas las revelaciones públicas. Adicionalmente, los ataques encubiertos incrementaron en complejidad, ocultos dentro de JavaScript y de Portable Document Formats (PDFs), mientras que Cloud y Virtualización se destacaron como futuros temas de seguridad clave para las organizaciones.

Las vulnerabilidades de aplicaciones Web continúan siendo la mayor categoría de revelaciones de vulnerabilidades – Las vulnerabilidades de aplicaciones Web han sobrepasado a todas las otras amenazas y representan el 55% de todas las revelaciones. Mientras que las vulnerabilidades de aplicaciones Web continúan elevándose a un índice estable, estos números pueden representar tan sólo la punta del iceberg del número total de vulnerabilidades de aplicaciones Web que existen, ya que no se incluyen aplicaciones Web desarrolladas de manera personalizada, que también pueden introducir vulnerabilidades.

Los métodos de ataques encubiertos y ocultos crecieron en frecuencia y complejidad, especialmente los que involucran a JavaScript – Las empresas luchan cada vez más contra ataques sofisticados en sus redes de cómputo, incluyendo a las Amenazas Persistentes Avanzadas. Estos sofisticados atacantes están empleando medios encubiertos para irrumpir en redes sin ser detectados por las herramientas de seguridad tradicionales. La ofuscación de JavaScript es una técnica particularmente popular usada por todos los tipos de criminales cibernéticos para ocultar sus explotaciones dentro de archivos de documentos y páginas Web. IBM detectó un incremento del 52% en ataques de ofuscación durante la primera mitad del 2010 en relación al mismo período en el 2009.

La actividad de phishing disminuyó significativamente, pero las instituciones financieras siguen siendo el objetivo principal — El volumen de phishing ha fluctuado ampliamente a lo largo de los pasados años. Durante la primera mitad del 2010 sólo se observó una fracción de los ataques de phishing que se dieron en el pico del 2009, una disminución de casi 82%.

Fuente: IBM.

Regresar a LogicOnline

Norton advierte sobre el uso de redes inalámbricas

agosto 28, 2010

Tener una red inalámbrica es conveniente, pero tiene sus riesgos, por esta razón es recomendable maximizar las opciones de seguridad de la red y proteger los computadores.

Diario Ti: Por naturaleza, la trasmisión de datos por una red inalámbrica es menos segura que la que se hace por medio de homólogos conectados. La información pasa por el aire, cualquier persona que tenga la señal de campo de la red puede infiltrarla o intentar interceptar las comunicaciones, una vez en ella, los hackers pueden intentar acceder a la información en sus computadores o incluso utilizar su red para realizar actividades ilícitas.

En el corazón de cada red inalámbrica existe un router principal o puerto de acceso. Este aparato transmite esta señal a un área limitada, pero por lo general, el campo del router excede el tamaño de la casa o los límites de la propiedad, de esta manera se produce la fuga, que es el fenómeno en donde las personas pueden coger la señal inalámbrica y unirse a la red de manera potencial.

Para minimizar el escape se debe ubicar el router en una posición central dentro de la casa, también se debe reducir la potencia de la señal, para hacer más pequeño el campo de la red, por último es recomendable crear un campo óptimo en donde la señal alcance los computadores, pero nada más allá.

La mayoría de los routers emiten sus nombres de red por defecto o su SSID de manera automática. Para evitar esto, es recomendable cambiar el SSID de la red, si es posible se debe apagar la función de emisión automática para que cualquiera que intente acceder a la red deba adivinar el nombre.

Las contraseñas sólidas y los nombres únicos impiden que los hackers accedan a la red, por lo tanto es importante cambiar las contraseñas y el nombre del usuario del administrador y su contraseña.

Fuente: Symantec.

Regresar a LogicOnline

Más de un millón de llamadas a través de Google en su primer día

agosto 28, 2010

Sólo en las primeras 24 horas de vida del servicio de llamadas a través Google, se registraron más de un millón, según ha informado la compañía a través de Twitter. Por otro lado, el servicio, inicialmente lanzado para EEUU y Canadá, fue activado “por error” en varios países, incluido en España.

Según informa Público, “un pequeño fallo de los ingenieros de Google”, ya subsanado, “permitió a muchos internautas del resto del mundo llamar desde su ordenador” a precios bajos, que según la compañía pueden llegar a costar dos centavos de dólar el minuto.

Aquellos usuarios fuera de EEUU y Canadá con su cuenta Gmail configurada en inglés tuvieron la oportunidad de dear de alta el servicio, aunque la compañía recomienda no usarlo “porque podría dar problemas”, sin concretar más.

Google comenzó a probar este miércoles el nuevo servicio de llamadas a través de Internet- que también funciona desde GMail hasta teléfonos tradicionales de forma gratuita-, en algunos usuarios y un día más tarde anunció su extensión a todos los internautas.

Se trata del último paso que se esperaba que diese la compañía del buscador en este terreno, tras Google Talk y Google Voice.

Con él, parece que la compañía va a empezar a explotar las posibilidades de Gizmo5, una compañía que adquirió a finales del año pasado y que se dedicaba precisamente a esta materia.

El sistema de llamadas de Google está integrado en la parte izquierda de Gmail, dentro de los contactos del chat y da la opción de realizar llamadas directamente a otro cliente, a un teléfono tradicional o a un móvil.

Regresar a LogicOnline

Chile publica su ley que garantiza la neutralidad de la Red

agosto 28, 2010

El primer país en introducir la protección de la neutralidad de la Red en su legislación acaba de publicar la ley que garantiza un trato igualitario por parte de los proveedores de red.

La Ley número 20.453, de 18 agosto (PDF), consagra el principio de neutralidad en la Red para los consumidores y usuarios de Internet y convierte al país andino en pionero mundial en el reconocimiento de este principio.

En su unico artículo, propone modificaciones de varios artículos de la vigente Ley General de Telecomunicaciones, en las que se obliga a los proveedores de Red a “no bloquear, interferir, discriminar, entorpecer ni restringir arbitrariamente el derecho de cualquier usuario de Internet para utilizar, enviar, recibir u ofrecer cualquier contenido, aplicación o servicio legal”.

Los operadores podrán gestionar su tráfico y sus redes siempre que no afecten a la libre competencia, y además están “obligados a preservar la privacidad de los usuarios, la protección contra virus y la seguridad”. Sólo podrán bloquear contenidos bajo expresa petición de un usuario y a sus expensas, en ningú caso de forma “arbitraria”.

Además, da la libertad al usuario de utilizar cualquier instrumento, dispositivo o aparato en la red siempre que sean legales.

Debate mundial

Chile ha recogido en su nueva ley el principio básico por el que se rige la neutralidad en la Red, un valor protagonista de un intenso debate debido los intereses de las grandes ‘telecos’, por un lado, y de compañías de contenidos, por otro.

Por ejemplo, los gigantes Verizon y Google se vieron envueltos en una gran polémica recientemente debido a una propuesta conjunta para garantizar la neutralidad de la Red en EEUU, pero con algunas excepciones.

Se trata de su particular aportación al debate sobre la regulación de la Red en dicho país, abierto especialmente después de que la Justicia estadounidense negase al regulador (FCC) el derecho a sancionar al operador Comcast por un comportamiento contrario a dicho principio.

Por su parte, la Unión Europea se encuentra en estos momentos en mitad de un debate público sobre neutralidad de la Red, mientras se perfila la Agenda Digital europea, capitaneada por la comisaria y vicepresidenta de la Comisión Europea, Neelie Kroes.

Otros países han experimentado avances legislativos sobre la igualdad de acceso a Internet. Por ejemplo, Finlandia garantiza el acceso teórico a la Red de todos sus ciudadanos mediante la declaración de la banda ancha como un derecho humano.

Sin embargo, gobiernos como el francés se han pronunciado en términos contrarios, al afirmar que Internet no es un derecho fundamental.

Regresar a LogicOnline

Google lanza un nuevo sitio específico para búsquedas en tiempo real

agosto 28, 2010

Google acaba de lanzar un sitio de Internet para usuarios que quieren ver noticias, comentarios y otra información en tiempo real, y que les permite conversar en redes sociales como Facebook y Twitter en un solo lugar.

La medida es una muestra de los esfuerzos del líder en búsquedas por Internet para competir con Bing, de Microsoft, a la hora de permitir a los usuarios seguir comentarios minuto a minuto, y también podría ser una herramienta útil para las organizaciones que siguen la opinión pública sobre cualquier tema, desde una película a un producto nuevo.

Los esfuerzos de Google, que ya había puesto en marcha este nuevo sistema de búsqueda a principios de este año, subrayan la importancia de los datos en tiempo real en los medios sociales.

En octubre,Microsoft también anunció una asociación con Twitter y Facebook para proveer resultados de búsquedas en tiempo real.

Funciones

Un enlace a los resultados de las búsquedas también permite a los usuarios seguir conversaciones en Internet -comentarios sobre un tema en particular- en tiempo real.

Otro permite a los usuarios elegir discusiones a seguir desde una ubicación geográfica específica en inglés, japonés, ruso o español.

Los estudios de cine, por ejemplo, pueden ver rápidamente los comentarios iniciales y los resúmenes de críticas después de un estreno de una película, o una empresa puede comprobar las opiniones sobre un nuevo producto en el día del lanzamiento.

La compañía no tiene planes de vender publicidad en el nuevo sitio, por ahora, al cual los usuarios pueden acceder también desde los resultados de búsquedas generados en la página principal.

“Esta es una gran manera de encontrar lo que la gente está diciendo sobre algo en este momento”, dijo el gerente de producto Dylan Casey. “La búsqueda en tiempo real es una función clave en las búsquedas de Google”, agregó.

“Con el tiempo, creo que los usuarios querrán investigar en las pantallas en tiempo real, en lugar a través de una búsqueda estándar”, afirmó Casey. “Vamos a buscar un equilibrio en todo esto con mucho cuidado”.

HP adquiere Fortify Software

agosto 21, 2010

Esta compra refuerza a HP en seguridad de aplicaciones. Fortify es un fabricante de programas de seguridad informática.

Diario Ti: HP y Fortify Software anunciaron que celebraron un acuerdo definitivo bajo el cual HP adquirirá Fortify Software, una compañía privada de control de seguridad de software basada en San Mateo, California.

Con la adquisición de Fortify Software, HP podrá ofrecer una solución completa, que ayudará a que las organizaciones reduzcan los riesgos empresariales, cumplan las normas de conformidad y se protejan las aplicaciones contra ataques maliciosos, integrando un control de seguridad continuo en todo el ciclo de vida de la aplicación.

“Las empresas operan en un mundo de constantes aumentos de desafíos de seguridad y conformidad, y las aplicaciones y servicios en los cuales confían son el problema principal y la solución”, afirmó Bill Veghte, vicepresidente ejecutivo de Software and Solutions en HP. “Con el liderazgo de Fortify en el análisis estático de seguridad de aplicaciones en combinación con la experiencia de HP en el análisis dinámico de seguridad de aplicaciones, las organizaciones podrán contar con una solución de vanguardia que mejore la seguridad de sus aplicaciones y servicios”.

“Fortify siempre ha estado comprometida para brindar ayuda a los directores ejecutivos de seguridad de la información y los equipos de aplicaciones, para que encuentren, solucionen y eviten vulnerabilidades de seguridad antes que puedan ser aprovechadas por invasores”, afirmó John M. Jack, director ejecutivo principal de Fortify Software. “La alianza con HP nos posibilitará integrar aún más nuestra tecnología y experiencia en seguridad con soluciones HP, permitiendo que nuestros clientes en sociedad, disminuyan el plazo para obtener seguridad en la producción de aplicaciones nuevas y existentes”.

HP inicialmente operará Fortify como una entidad independiente para garantizar la continuidad, al mismo tiempo que objetiva el mercado de seguridad. Fortify será integrada a lo largo del tiempo en el grupo HP Software and Solutions. Los productos Fortify se tornarán parte del portafolio de aplicaciones de Optimización de Tecnología Empresarial (BTO), disponible a través de los canales de ventas y servicios HP.

Regresar a LogicOnline

Administración del tráfico de redes móviles es fundamental

agosto 21, 2010

Documento de posicionamiento de 3G Américas ilustra la importancia de la administración de tráfico.

Diario Ti: 3G Américas anunció la publicación de un documento para educar a los interesados sobre la importancia de la administración del tráfico en las redes móviles de banda ancha con la finalidad de asegurar servicios de alta calidad para los consumidores brindando la confiabilidad general de la red.

El informe, Traffic Management Techniques for Mobile Broadband Networks: Living in an Orthogonal World (Técnicas de administración de tráfico para redes móviles de banda ancha: vivir en un mundo ortogonal), se focaliza en las redes 3GPP y se ocupa específicamente de la administración del tráfico, incluso el manejo de flujos de tráfico en redes 3GPP en contraste con otras técnicas de administración de redes que pueden implantar los operadores (tales como compresión de descargas, optimización de redes y otros mecanismos de relevancia).

Teniendo presente al consumidor, es crítico contar con una visión de extremo a extremo (E2E) del servicio móvil para la administración de tráfico. Por ejemplo, para un consumidor que utiliza el teléfono celular para buscar listados de películas y adquirir boletos, el servicio E2E es la capacidad de ver qué película se está proyectando y ejecutar una transacción para adquirir boletos. El 3GPP buscó estandarizar técnicas de administración de tráfico (Calidad de Servicio, o QoS) cada vez más robustas para redes de banda ancha móvil con la visión que tiene el cliente sobre la QoS de E2E. Sin embargo, debe tenerse en cuenta que los operadores móviles típicamente no tienen un control total sobre el aprovisionamiento de servicios de E2E que dependen del acceso a Internet por banda ancha móvil.

Las organizaciones mundiales de estándares, como el 3GPP, desempeñan un papel importante en el desarrollo de la administración de tráfico a través de provisiones para abordar la QoS, en particular con respecto a la interoperabilidad con mecanismos de acceso distintos de los del 3GPP. Estas son innovaciones importantes, y el libro blanco de 3G Americas observa que los esfuerzos de las organizaciones que desarrollan estándares deben intensificarse.

Además, la configuración de dispositivos para el usuario final y los contenidos y aplicaciones no aprovisionados por el operador de la red no solo impactan en la experiencia de un usuario individual, sino también potencialmente en la de otros usuarios de una determinada celda. Los esfuerzos para impulsar aún más innovaciones QoS deben tomar en cuenta los impactos potencialmente adversos de estas fuentes y dar soporte y promover la interoperabilidad de aplicaciones de terceros con las plataformas de redes existentes.

Se necesitan más innovaciones a lo largo y ancho del ecosistema de la banda ancha móvil, en particular de parte de desarrolladores de aplicaciones, de modo de lograr la calidad de servicio E2E. Más aún, es importante la transparencia de las prácticas de administración de redes al promover la innovación, pero esto requiere un equilibrio cauteloso para asegurar la comprensión del consumidor al tiempo que se protege la confiabilidad de la red.

Fuente: 3G Américas.

Regresar a LogicOnline

Intel compra McAfee por 5.960 millones de euros

agosto 21, 2010

Nueva York.- El fabricante estadounidense de microprocesadores Intel ha sellado un acuerdo con la compañía de antivirus McAfee por 7.680 millones de dólares en efectivo, unos 5.964 millones de euros.

Intel abonará 48 dólares en efectivo por cada acción de McAfee, lo que representa una prima del 60% respecto al precio de cierre de sus acciones del día de ayer.

Los consejos de administración de las dos empresas han respaldado de manera unánime el acuerdo, que se cerrará tras recibir las oportunas autorizaciones por parte de los reguladores y de los accionistas de McAfee. Ello convertirá a McAfee en una filial de la división de software y servicios de Intel.

“Con la rápida expansión del crecimiento a través un amplio abanico de servicios interconectados en la Red, cada vez más y más elementos de nuestras vidas se desarrolan ‘online'”, dijo el presidente y consejero delegado de Intel, Paul Otellini.

El directivo subrayó que, si en el pasado fue la eficiencia energética y la conectividad definieron los requerimientos de la industria, “a partir de ahora la seguridad se unirá a ellos como un tercer pilar de lo que el público pide”.

Así, la multinacional de Santa Clara destacó que la adquisición de McAfee representa el siguiente paso en la estrategia de la empresa y supone el socio en seguridad adecuado para Intel.

Regresar a LogicOnline

McAfee llama a la proactividad en ciberseguridad

agosto 14, 2010

Un nuevo informe publicado por McAfee subraya la necesidad de tomar una posición más proactiva contra los cibercriminales por parte de la industria de la seguridad.

Diario Ti: Debido a los últimos incidentes relacionados con el ciberespionaje, la eliminación de ciertas bandas de cibercriminales, y las amenazas que tipos de malware sofisticado como Stuxnet suponen para las infraestructuras críticas, los investigadores de McAfee Labs™ y expertos del sector piden una estrategia más proactiva para luchar contra el cibercrimen.

“Los cibercriminales prosperan en sus delitos porque tienen muy pocas razones para temer las consecuencias”, afirma Jeff Green, vicepresidente senior de McAfee Labs. “Como expertos en seguridad, es hora de valorar lo que hacemos, cómo lo hacemos y nuestros objetivos. Las herramientas y técnicas del cibercrimen continúan creciendo en número y sofisticación a un ritmo alarmante. Cada vez que publicamos una nueva estadística sobre el crecimiento del malware se queda obsoleta de forma inmediata”.

El informe titulado “La Seguridad Contraataca” se basa en estrategias reunidas por expertos internacionales y lanza “un grito de guerra” a la industria de la seguridad para tomar una actitud proactiva contra los cibercriminales. Tradicionalmente, la tecnología de seguridad y los usuarios han tomado una postura defensiva colocando una “ciberarmadura” en los ordenadores, en las redes y en la nube. Los autores del informe afirman que es momento de eliminar la armadura y tomar una postura más agresiva alineando esfuerzos e involucrando a las fuerzas del orden.

“Como hemos podido observar en la evolución del riesgo de los dominios y sitios web, el riesgo se mantiene en volumen y sofisticación,” afirma Dave Marcus, director de investigación de seguridad y comunicaciones de los laboratorios McAfee Labs, “La industria de la seguridad y nuestros clientes necesitan avanzar en los esfuerzos dedicados a la seguridad, como la evolución de las amenazas, si queremos dejar de convertirnos en víctimas.”

El informe detalla los siguientes métodos para crear la mayor estrategia ofensiva de seguridad:

· Uso de las técnicas de los hackers La pérdida de datos está creciendo de forma exponencial. De hecho, en EE.UU solo en 2009 hubo 222 millones de archivos comprometidos. Las organizaciones deberían hacer uso de técnicas utilizadas por los propios hackers, como fuzzing (pruebas de introducción de datos erróneos) y pruebas de penetración, para generar errores en sus propios productos, y abordar el objetivo de igual forma que lo harían ellos.

· Proporcionar datos para ayudar a procesar judicialmente a los cibercriminales
La mayor parte de la lucha contra el spam está en manos de ICANN (Internet Corporation for Assigned Names and Numbers), tiene potestad para acreditar a los registradores que venden los dominios que los cibercriminales utilizan para alojar sitios web sospechosos. Junto con la industria de seguridad, ICANN debería tomar una postura más firme contra el cibercrimen.

· Compartir información
Los usuarios, profesionales de seguridad y administradores deberían compartir información inteligente con sus proveedores de seguridad y cooperar con ellos compartiendo bases de datos. Los legisladores deberían tener esto en cuenta cuando llevan a cabo los proyectos de ley en sus respectivos países.

· Implementar “Shuns” y “Stuns”Tres exitosos sitios de “ensayo – error” han caído hasta el momento: McColo, Atrivo y Mega –D – que pertenecen a una de estas dos categorías: “shuns” cuando la comunidad de Internet hace el vacío a la red, y “stuns” que trata de incapacitar los botnets. Una práctica de seguridad ofensiva debería involucrar a la industria de seguridad e incorporar métodos de probado éxito. “Shuns” y “Stuns” han tirado por tierra los métodos del pasado, los expertos de la industria, y la aplicación de la ley deberían englobar dichos métodos como una práctica de seguridad habitual.

· Utilizar técnicas que aumentan el riesgo al que se exponen los cibercriminalesEl cibercrimen está aumentando y es ya una actividad que reporta beneficios. Como cualquier modelo de negocio, la psicología de cibercrimen organizado sigue tres factores: riesgo, esfuerzo y recompensas. Mediante el uso de una serie de tácticas potenciales que afectan a cada uno de estos factores, la relación puede cambiar, por lo que los cibercriminales se enfrentan al riesgo real de que la recompensa se reduzca considerablemente, disminuyendo la ciberdelincuencia en general. Algunas de estas técnicas incluyen revelar públicamente los nombres de los cibercriminales, el aumento de las multas contra los cibercriminales, el aumento del cierre de dominios afectados, más filtros antispam, el cierre de cuentas electrónicas y la congelación de cuentas sospechosas o fraudulentas.

· EducaciónLos expertos en seguridad deberían trabajar estrechamente con los gobiernos para elaborar un verdadero programa de cibereducación, de forma que los usuarios puedan asociar desinformación y desconocimiento con el riesgo de convertirse en víctimas. Esto incluye también formar a aquellos que luchan contra la ciberdelincuencia en las calles (policía y cuerpos de seguridad), para que conozcan lo último en técnicas de malware, proporcionando herramientas a la población que les ayude a identificar cualquier comportamiento de riesgo. También es importante informar a los ciudadanos de los contactos, teléfono y direcciones a las que se pueden dirigir en caso de que necesiten denunciar algún posible delito, y ayudar a construir las bases de una educación que debe comenzar desde los colegios.

El informe “McAfee Security Journal” traza una estrategia ofensiva que involucra dos componentes clave: aplicación de ley proactiva y la unión de la comunidad de la seguridad para ayudar en la caída de los infractores. McAfee, actualmente proporciona Inteligencia Global de Amenazas, una gran solución que rastrea Internet y utiliza millones de sensores para adquirir inteligencia en tiempo real de las direcciones IP alojadas, dominios de Internet, URLs específicas, archivos, imágenes y correos electrónicos. Armado con esta información, el equipo de los laboratorios McAfee Labs trabaja con las fuerzas de la ley para ayudar a atrapar a quienes están detrás de la actividad criminal. Esta unidad transforma una estrategia de seguridad reactiva en una estrategia de seguridad ofensiva, sentando las bases para un tipo de interacción que ayudará a reducir los productores de malware, spam y scareware.

“Crear un marco para que estas organizaciones desempeñen un importante papel en la información de abusos y hacer cumplir las leyes (junto con un aumento de presupuesto) es donde los legisladores que tratan de impactar en el cibercrimen deberían dirigir su atención”, afirma Joe Stewart, director de investigación de malware de SecureWorld Counter Threat Unit, en el informe “Este es un esfuerzo a largo plazo, y que requerirá un gran cambio político y tratados mundiales antes de que el cibercrimen sea considerado una práctica arriesgada por quienes buscan aprovecharse de Internet en su propio beneficio.”.

El informe se ha elaborado gracias a la participación de investigadores de los laboratorios McAfee Labs y prestigiosos expertos en seguridad como el periodista Brian Krebs, Félix “FX” Lindner, director técnico y jefe de investigación de Security Labs y Joe Stewart. Todos ellos están de acuerdo en que las medidas establecidas en este informe son preliminares, y es solo el primer paso que tiene que dar la industria.

Para leer el informe completo, puede visitar www.mcafee.com

Pulse aquí para ver el informe en español completo.

Regresar a LogicOnline

Retención infinita de datos conduce a errores costosos

agosto 14, 2010

Cuestiones como altos costos de almacenamiento, ventanas prolongadas de copias de respaldo, riesgos de litigio e eDiscovery ineficiente asedian a las empresas.

Diario Ti: Symantec Corporation publicó los resultados de su Encuesta 2010 sobre Manejo de la Información que destaca que la mayoría de empresas no está siguiendo sus propios consejos en cuanto al manejo de la información.

Ochenta y siete por ciento de los encuestados cree en el valor de un plan formal de retención de la información, pero sólo 46 por ciento realmente tiene uno. Los resultados de la encuesta también encontraron que muchas empresas guardan información por tiempo indefinido en lugar de implementar políticas que les permitan eliminar con confianza datos o registros no importantes y por lo tanto sufren de creciente almacenamiento, ventanas insostenibles de copias de respaldo, mayores riesgos de litigios y procesos de descubrimientos costosos e ineficientes.

“La retención infinita produce residuos infinitos. Las empresas ven el valor de un plan sólido de manejo de la información, aunque todavía son muchas las organizaciones que siguen la práctica obsoleta de guardar todo para siempre”, dijo Brian Dye, Vicepresidente de producto del Grupo de Administración de la Información, Symantec. “El gran volumen de datos está creciendo exponencialmente, por lo que intentar guardar todo consume grandes cantidades de espacio de almacenamiento y exige demasiado de los recursos de TI. Como resultado, las empresas gastan mucho más tiempo y dinero en las consecuencias negativas de las prácticas deficientes de administración y descubrimiento de la información que si trabajaran por cambiarlas”.

Aspectos destacados de la encuesta:

1. Brecha entre los objetivos y la práctica de manejo de información empresarial: la mayoría de las empresas (87 por ciento) cree que una estrategia adecuada de retención de la información debe permitirles borrar información innecesaria. Sin embargo, menos de la mitad (46 por ciento) tiene un plan formal de retención de la información.

2. Las empresas retienen demasiada información: setenta y cinco por ciento del almacenamiento de las copias de respaldo consta de retención infinita o de grupos de copias de seguridad de retención legal. Los encuestados también declararon que 25 por ciento de los datos que incluyen en copias de respaldo no son necesarios para el negocio o no deben guardarse en una copia de respaldo.

3. Las empresas utilizan inadecuadamente las prácticas de archivado, recuperación de archivos y copias de respaldo: setenta por ciento usa software de respaldo para implementar retenciones legales y 25 por ciento conserva todo su conjunto de copias de respaldo indefinidamente. Los encuestados dijeron que 45 por ciento del almacenamiento de la información está relacionado con retenciones legales. Además, las empresas dijeron que, en promedio, un 40 por ciento de la información en retención legal no es específicamente relevante para este litigio. El uso de copias de respaldo junto con aspectos de archivado proporciona acceso inmediato a la información más pertinente y permite a las empresas retener menos y reducir costos.

4. Casi la mitad de las empresas encuestadas utilizan incorrectamente su software de respaldos y recuperación de archivos: además, mientras que el 51 por ciento impide a los empleados crear archivos propios en sus equipos locales y unidades compartidas, el 65 por ciento admite que los empleados habitualmente lo hacen de todas formas.

5. Diferencias entre cómo la TI y los encuestados legales mencionaron problemas importantes por falta de un plan de retención de la información: cuarenta y un por ciento de los administradores de TI no ve la necesidad de un plan, 30 por ciento dice que nadie asume esa responsabilidad y 29 por ciento mencionó el costo. El departamento legal mencionó problemas principales como el costo (58 por ciento), la falta de conocimientos especializados para elaborar un plan (48 por ciento) y el que nadie asumió la responsabilidad (40 por ciento).

La Encuesta 2010 sobre Manejo de Información se realizó en junio de 2010 y se basa en las respuestas de 1,680 ejecutivos senior de los departamentos de TI y legal en 26 países.

Fuente: Symantec Corporation.

Regresar a LogicOnline


A %d blogueros les gusta esto: