Authors Posts by Revista Esecurity

Revista Esecurity

1079 POSTS 0 COMMENTS

0 1.475 views

 

UN NUEVO CONCEPTO DE SEGURIDAD.

Entrevista a Jaume Ayerbe | HP Enterprise Security Products


¿Podría contarnos brevemente cómo fue el evento de presentación de la integración de la unidad de seguridad celebrado recientemente en EEUU?

Llevamos un proceso largo de cerca de un año de proceso de integración. Hemos ido adquiriendo compañías a lo largo del otoño del año pasado. En el primer aniversario creímos llegado el momento de que se consolidaran las ofertas. HP proporciona la capacidad de anticipar lo que va a ocurrir y estudiar qué es lo que está ocurriendo y prevenir determinadas situaciones. En ese sentido la unión de tres productos que ya por separado eran líderes indiscutibles permite sumar calidad. Particularmente interesante fue lo que comentaron los directivos de la unidad de negocio o Enterprise Security Products Unit, pero fue también muy interesante la reacción de los clientes, que han recogido nuestra propuesta de valor.

¿Qué valor añadido aportan estas tres tecnologías frente a la oferta ya existente en el mercado?

Son tres tecnologías que aportan una novedad muy importante, cada uno en su área. La seguridad en el perímetro tiene un determinado nivel de madurez muy elevado; asimismo, la seguridad en el endpoint (el puesto de trabajo) también ha adquirido una madurez importante. Sin embargo, en HP consideramos que existían determinadas áreas donde se podía aportar mucho valor. Recientemente hemos visto cómo constantemente se producen ataques de todo tipo, desde los ataques de supuestos “activistas” como Anonymous al crimen organizado que ataca a grandes empresas como Sony o Citygroup con fines lucrativos. Una vez superado el perímetro de seguridad, el tránsito posterior por el interior del sistema es relativamente cómodo. En este sentido, las tres grandes soluciones que HP ha incorporado a su portfolio se complementan muy bien. Una solución como Fortify, por ejemplo, permite comprender la constitución de un aplicativo, su interior. Es algo a lo que los hackers nunca tienen acceso. Tradicionalmente, los aplicativos se protegían y validaban con pruebas de penetración, que siguen siendo válidas, pero que ofrecen una perspectiva externa desigual. Los hackers son muchos y muy diversos, y basta con que uno encuentre una entrada por una de las muchas puertas que tiene nuestro sistema. En cambio, nuestra obligación es defender todas y cada una de esas puertas. Conocer cómo se ha construido el aplicativo nos otorga una ventaja importantísima permite una defensa más robusta y además ofrece una nueva perspectiva a la hora de construir dicha defensa.

En el caso de que esta perspectiva fuera insuficiente, tenemos la oportunidad con las herramientas y soluciones de Tipping Point de plantear una prevención en tiempo real de muchas vulnerabilidades, teniendo en cuenta además que los laboratorios de Tipping Point han detectado más vulnerabilidades que los cinco fabricantes siguientes juntos, entre los que se encuentran los principales nombres de la seguridad perimetral. El tiempo medio de respuesta de las vulnerabilidades día cero es -23, es decir: Tipping Point está liberando soluciones para problemas que todavía no han sido reportados y aún no se conocen. Sus laboratorios se ponen en contacto con los fabricantes de sistemas operativos y aplicaciones comerciales para notificarles las posibles vulnerabilidades detectadas. Los fabricantes pueden así corregir y publicar un parche. Tipping Point proporciona, de media, una solución 3 semanas antes de que la vulnerabilidad se haga efectiva.

Tenemos muchas situaciones en las que podría ser muy complicado intentar protegernos y construir mecanismos de defensa. Por ejemplo, cuando hace un par de años en Société Générale teníamos a un inversor que comenzó a lanzar un montón de apuestas cruzadas y que originó un problema muy grave (estamos hablando del que probablemente es el cibercrimen más importante hasta la fecha con varios miles de millones de euros). Técnicamente, puede llegar a ser muy complicado que un aplicativo sea capaz de entender que se están ejecutando muchas operaciones cruzadas y que eso no tiene sentido, fundamentalmente porque los ingenieros que construimos estos sistemas no estamos entrenados para detectar esta ingeniería financiera. Sin embargo, hay cosas que con una buena solución que permita establecer una buena correlación de logs y observar la actividad deben verse. Yo tengo que ser capaz de ver que desde el puesto de trabajo alguien ha iniciado sesión 15 personas distintas en un periodo inferior a una hora. Esta correlación avanzada que va más allá de la mera recolección de información da una ventaja muy competitiva. La simplicidad nos la puede aportar esta tercera solución con una buena ingeniería, incluido para soluciones aparentemente triviales.

¿Puede HP ofrecer las tres tecnologías a nivel mundial en cualquier país?

Sí, disfrutamos ya de cobertura plena. En septiembre anunciamos la disponibilidad global de estas soluciones. Contamos con nuestra división de servicios que ofrece una experiencia importantísima a la hora de ejecutar proyectos en tiempo y dentro del presupuesto acordado.

¿Cuál suele ser el tiempo medio de un proyecto de seguridad?

Las situaciones son muy diversas y por lo tanto no puede hablarse de una respuesta inmediata, pero un ciclo normal para el que podemos ofrecer resultados tangibles y en el que se puede empezar a medir económicamente hablaríamos de periodos de entre 1 y 3 meses. En España conocemos casos de clientes cuyas primeras interacciones con nosotros han dado como resultado retornos muy importantes. No hay que olvidar que otra de las grandes ventajas que ofrecen las tecnologías por la que ha apostado HP es la fineza y el valor de la información que proporcionan. Es decir: somos capaces de documentar por qué una situación concreta supone un problema y de transmitírselo a las personas que tienen responsabilidades, en su propio lenguaje, y ofreciéndoles alternativas y ejemplos que les permitan visualizar por qué deberían corregir algo y cuál sería el impacto. Esta parte educativa parece muy de libro, pero muchas veces las personas suelen ser las últimas involucradas. En este caso, las soluciones aportan un valor de formación y capacitación muy importante. Hacer mal las cosas es más caro a largo plazo, porque supone volver a refactorizar, volver a hacer ingeniería de sistemas, etc. Hacer bien las cosas es muy sencillo, pero alguien tiene que enseñarte. Aparentemente, en los tiempos que corren hoy en día no parece agradable ni fácil invertir en un proyecto, pero cuando ponemos en perspectiva las consecuencias de no hacer algo bien, vale la pena. Además sabemos que la recuperación de la inversión será a medio plazo.

¿Qué objetivo se ha marcado HP para esta división a nivel global?

Nos hemos marcado objetivo no necesariamente en cifras económicas. Queremos conseguir una penetración significativa en el mercado, que existe un reconocimiento de la oferta integrada. Recuerde que estamos hablando de soluciones que ya eran muy reconocidas en la industria pero que no gozaban necesariamente de una gran penetración en España o Portugal. Algunas de estas compañías tenían un tamaño no particularmente grande y no podían permitirse el lujo de llegar a todos los mercados. Nuestra apuesta pasa por ayudarlas tanto a través de nuestra presencia en el mercado como de nuestro know-how y nuestra división de servicios. Las compañías necesitan una verdadera integración y cohesión de estas apuestas. Mantenemos la coherencia en el tiempo: tenemos la capacidad de anticipar lo que va a ocurrir, detectar qué es lo que está ocurriendo, y solventar aquellos problemas que se detecten.

¿Tiene sentido que un operador de una sala de tesorería se esté identificando en 15 máquinas distintas en una sola mañana? ¿Tiene sentido que una persona pueda iniciar sesión desde un equipo en las oficinas de Madrid y 15 minutos después lo haga desde las oficinas de París? Son cosas que tienen que empezar a llamarnos la atención. Todo ello permite abrir una nueva dimensión en el control y prevención del fraude. Las compañías en España ya tienen una serie de requisitos de obligado cumplimiento a la hora de recoger y mantener los logs en sus sistemas, pero es una pena que todos esos datos no se conviertan en información actuable. Eso es lo que ofrece nuestra capa de inteligencia.


¿Cómo ve el futuro de la seguridad gestionada?

Nadie está interesado en adquirir un hardware o un software y ponerlo a funcionar sin más. La gente quiere soluciones y quiere convencerse de que el fabricante X me puede ofrecer una solución, sin tener que preocuparme de los problemas de mantenimiento de la infraestructura, su plataforma, etc. Nuestras soluciones se ofrecen indistintamente, con la misma calidad y los mismos acuerdos de nivel de servicio tanto en versión tradicional con una licencia que se puede adquirir y desplegar en un centro de datos, como en el cloud o de software como servicio o bajo demanda. Ya hay muchos clientes que están apostando por esta vía que sólo necesitan saber que sus sistemas se actualizan, que periódicamente nos anticipamos a las vulnerabilidades de día cero, y a partir de ahí es mucho más conveniente para ellos que sea el fabricante quien gestione el resto. Primero, porque se obtiene mucho más valor; segundo, porque voy a generar un retorno rápido.

 

0 2.775 views

 

VMWARE FORUM MADRID 2011

Alfonso Ramírez, director general de VMware Iberia


1º ¿Cuales van a ser las claves de esta Edición “VMware Forum 2011”, que objetivos tenéis?

VMware Madrid Forum 2011, que se celebrará el próximo 2 de junio en Madrid, es un evento que forma parte de una serie de encuentros mundiales para presentar las últimas tecnologías y desarrollos de la compañía. Su objetivo es servir como punto de encuentro entre fabricantes, socios y clientes finales.

En la apertura del encuentro se explicará el modelo de negocio de la compañía basado en el desarrollo e implantación de soluciones cloud totalmente adaptadas a las necesidades concretas de cada organización. Las soluciones de gestión e infraestructura de VMware crean los cimientos para el despliegue de clouds “a la medida de cada necesidad” –privadas, públicas o híbridas- gracias a la flexibilidad de VMware vSphere, que asegura el enfoque más abierto al cloud computing.

Además, empresas y entidades públicas que ya disfrutan de las ventajasnuestras soluciones como El Corte Inglés, la Caixa, el Servicio Murciano de Salud o Telefónica, también relatarán cómo han emprendido el viaje hacia el cloud computing y cómo se benefician en la actualidad de infraestructuras más seguras, ágiles y productivas en sus entornos profesionales.

 

 

2º ¿Qué novedades vais a presentar en el certamen?

Aunque ya podemos afirmar que la virtualización y el cloud computing están plenamente integrados en las estrategias de tecnología de la mayor parte de las empresas de cualquier tamaño, observamos que existe una creciente demanda de información para conocer los beneficios reales a la hora de emprender proyectos de este tipo. En VMware Madrid Forum 2011 tendremos la oportunidad única en España de contar con los fabricantes de soluciones más importantes del mercado, los socios de canal de la compañía y la experiencia de clientes que ya utilizan soluciones cloud. Entre las ponencias más importantes del encuentro, destacan algunas sobre cómo construir “su cloud”, el momento de reconsiderar la informática de usuario final o la renovación del concepto de TI.

3º Cloud Computing, ¿Nube pública o privada?, ¿que papel juega la seguridad en estos entornos?

VMware distingue dos tipos de nubes en su iniciativa vCloud. Por un lado, nubes internas o privadas, que se relacionan con los CPDs de una determinada organización y permiten la optimización tanto de los recursos disponibles a nivel de infraestructura local como de los servicios que se ejecutan sobre ella. Y, por otro, nubes externas o públicas, proporcionadas por un tercero (operadoras) y que permiten contratar la ejecución de un determinado servicio o conjunto de servicios en la infraestructura del tercero, proporcionando un acceso estándar y planteando distintas posibilidades de acuerdos de niveles de servicio en función de la criticidad del servicio o de los servicios contratados.

VMware apuesta por un modelo de cloud computing híbrido, una combinación e integración transparente de la nube privada y pública, dotando a las organizaciones con una capacidad total de elección sobre la oferta cloud disponible, incrementando significativamente los niveles de agilidad y visibilidad en su propio modelo de cloud computing, así como de la seguridad, el control y los niveles de servicio que las empresas requieren.

Los beneficios del cloud computing son enormes, ya que, gracias a economías de escala, la rentabilidad de los servicios adquiridos es mucho más alta y la eficiencia en la gestión y el uso es mucho mayor. Además, contrariamente a lo que se puede pensar, el control y la capacidad de elección mediante la federación entre clouds o con el concepto de cloud privada es enorme, ya que se puede decidir de forma transparente dónde ejecutar un determinado servicio (si de forma interna o externa) y realizar las acciones necesarias de forma flexible, automática y segura para llevar a cabo esa decisión en el menor tiempo posible.

En VMware entendemos que la virtualización mejora y flexibiliza considerablemente la forma en la que gestionamos nuestros centros de datos en la actualidad, flexibilizando las dependencias con el mundo físico. Con este fin, seguimos realizando un esfuerzo de inversión fortísimo en innovación, que no puede olvidar de ningún modo la necesidad de garantizar los mayores niveles de seguridad de nuestros entornos, habida cuenta que nuestra plataforma está diseñada para ejecutar entornos críticos de negocio.

VMware ha hecho un especial foco en este aspecto para garantizar que se cumplen los niveles de seguridad en su plataforma de virtualización, si no situándolo al mismo nivel que en un entorno físico, incluso llegando superarlo gracias a la flexibilidad y la automatización que proporciona la plataforma. Además, la compañía cuenta con soluciones como vShield, que fortalecen la seguridad de la información y las aplicaciones, mejorando la visibilidad y el control para acelerar los servicios TIC a lo largo de toda la organización. La familia de soluciones vShield ofrece la protección necesaria para centros de datos virtuales y entornos cloud.

 

4º La virtualización ya está claramente consolidada en los nuevos CPD, como cambia el concepto con el antiguo modelo de Data Center?

Gracias al cloud computing, cualquier organización, incluso la Pyme, puede beneficiarse de una reducción de costes de mantenimiento (y gastos de energía), liberación de espacio físico en la oficina y, sobre todo, una mayor disponibilidad de las aplicaciones. De esta manera, todas las aplicaciones, incluso las más críticas, se convierten en una “utility”, de la misma manera que el agua, la electricidad y el gas, por lo que los responsables de las empresas pueden dedicarse a actividades que impacten al negocio directamente y no perder tiempo en gestionar las infraestructuras tecnológicas, instalar actualizaciones, etc.

Al tratarse de un modelo que permite plantear las Tecnologías de Información como un servicio, una de las grandes ventajas de la virtualización es el pago por uso, lo que permite a las empresas ajustar las inversiones en infraestructura que tenían que realizar hasta ahora, así como en costes operativos. Gracias a este modelo, cada empresa puede disfrutar de aquellas soluciones que necesita de forma personalizada, lo que permite a los usuarios plantearse la posibilidad de alquilar la capacidad necesaria para ejecutar un determinado servicio o aplicativo pagando exclusivamente por su uso. Esto es especialmente útil para las pequeñas y medianas empresas que pueden beneficiarse de la economía de escala, ajustando de una forma más óptima sus presupuestos para seguir compitiendo con las grandes corporaciones; básicamente ajustando sus inversiones al uso real que hacen de sus servicios.

 

 

5º ¿Como las soluciones de gestión e infraestructura de VMware ayudan a las empresas a crear su propia nube?

Una de las sesiones que tendrá lugar durante la jornada del VMware Forum Madrid 2011 será sobre cómo construir “su cloud”. El cloud computing se ha convertido en una de las prioridades más importantes en 2011. De hecho, IDC predice que una de cada tres compañías considera este tipo de soluciones como “vitales” en su estrategia tecnológica para este año y prevé una inversión en servicios cloud en EMEA de 18.800 millones de dólares hasta 2014

El Cloud Computing está cumpliendo su primera etapa, consistente en la creación de nubes de computación en distintos puntos. Esas nubes son tanto internas de compañías como nubes creadas por proveedores de servicios para constituirse como recurso externo o incluso híbridas, con una mezcla de las dos anteriores.

Una vez que las nubes están creadas y preparadas para alojar servicios, el reto está en que éstas puedan “hablar” entre sí y transferirse cargas de trabajo de forma dinámica y segura, de manera que una compañía, ante una eventual necesidad de aumentar su capacidad de servicio de aplicaciones, pueda balancear la carga de forma automática e inmediata y continuar prestando un servicio sin ininterrumpido a sus usuarios.

En cualquier caso, sin duda, todas las propuestas tecnológicas que no supongan ahorro de costes a corto plazo han salido perjudicadas. Hoy en día el gran reto de los directores de tecnología es conseguir una infraestructura más flexible, con los costes operativos más reducidos posibles y orientados al negocio de la corporación. Las tecnologías “cloud” han sido y serán durante los próximos años la gran apuesta tecnológica por sus ventajas en cuanto a flexibilidad en costes y capacidad, adaptadas a las necesidades cambiantes del cliente.

6º La movilidad se ha convertido en un reto para las empresas, donde esta posicionado VMware para el creciente mercado de los smartphones?

Estamos en el momento de reconsiderar la informática de usuario final, la transformación del entorno de usuario final es determinante para alcanzar los objetivos de productividad en cualquier organización, especialmente hoy en día con el uso masivo de dispositivos heterogéneos como portátil, smartphones o tablets.

Las empresas de tecnología tenemos que dar una contestación a ese requerimiento y desde VMware se lo estamos dando con nuestras soluciones. En nuestro caso nuestras soluciones para virtualización de escritorios, que hacen que lo importante sea el usuario independientemente del aparato que utilice para conectarse a la información. A título de ejemplo, como parte de su estrategia Mobile Virtualization Platform (MVP), VMware ha anunciado recientemente un acuerdo con LG para la comercialización de smartphones con sistema operativo Android virtualizados. Con este acuerdo será posible disponer, en un único teléfono, de dos sistemas operativos, uno para su uso corporativo y otro para el personal. Esto se hace posible gracias a la virtualización ya que las aplicaciones y los datos se mantienen aislados. De esta forma, se solventan la mayoría de los problemas de gestión de los smartphones causados por el interés de los usuarios de conectar sus distintos aparatos personales (teléfonos, tabletas, portátiles,..) a los sistemas de trabajo.

También hemos anunciado hace poco Horizon App Manager, que representa el primer componente de la estrategia “Horizon” de la compañía, presentada en VMworld 2010, y supone facilitar el acceso del usuario final a una gran variedad de tipos de aplicaciones, escritorios Windows virtuales o recursos corporativos sin perder de vista el control y la seguridad empresarial. El resultado es una experiencia de usuario sin fisuras a la hora de acceder a los recursos de trabajo tanto en clouds privadas como públicas sin importar el dispositivo que se esté utilizando.

 

0 1.891 views

 

“LA NUEVA GENERACIÓN DE FIREWALLS DE APLICACIÓN”

Entrevista a Nicasio de Tomás, Territory Account Manager (Sonicwall)


¿Podría ofrecernos una breve mirada a la nueva generación de firewalls y explicar qué cambios se han producido respecto de la generación anterior?

El concepto de firewall ha evolucionado desde el firewall puro que cumplía unas normas básicas de análisis de capa 4, cabecera de paquetes y filtrado del tráfico, hacia un concepto de UTM de gestión unificada de las amenazas, donde además de analizar la capacidad de los paquetes, se realiza un paquete del análisis como tal. En base a ese análisis se podían introducir firmas de antivirus, antimalware en general, IPS y filtrado de contenidos. Éste ha sido el concepto hasta la aparición de la nueva generación de firewall, en el que podemos diferenciar dos elementos fundamentales que lo distinguen de un UTM: el poder detectar, analizar y visualizar aplicaciones como tal (no protocolos, sino aplicaciones), monitorizándolas y aplicándoles las propias aplicaciones de gestión del ancho de banda, etc. La segunda característica diferenciadora es la capacidad de realizar inspecciones en profundidad de los paquetes sobre tráfico y poder analizarlo aparte de las vulnerabilidades.

El rendimiento de un firewall y la capacidad que tiene de procesamiento e inspección profunda de paquetes están basados en factores diversos. Evidentemente, existe un factor dependiente del hardware (tipo de procesador, etc.). En nuestro caso, tenemos patentada una tecnología de inspección profunda de paquetes propia sin ensamblaje. Al hacer la inspección profunda de paquetes, nosotros no cacheamos el paquete. Otros fabricantes lo cachean, componen el paquete y lo vuelven a en línea, entregándolo o no. Ello tiene unas desventajas obvias: aparte de un retraso considerable, el caché tiene un tamaño limitado que, de superarse, impide la inspección profunda de paquetes. Nuestra tecnología funciona online y en toda nuestra gama trabajamos con procesadores multinúcleo, lo que nos permite evitar cualquier tipo de latencia dentro del sistema.

¿Hasta qué punto la desconfianza creada con las siglas de UTM ha hecho que los clientes exijan soluciones UTM en las cuales vengan embebidas distintas soluciones de seguridad?

El concepto de UTM tiene una amplia implementación en el mundo de la PYME. En la mediana y gran empresa es difícil encontrar UTM por dos razones. Como bien ha dicho, hace 5 años los UTM no ofrecían un rendimiento adecuado para una gran cuenta. Pero además había una filosofía que era partidaria de utilizar una solución para cada una de las funciones. No eran partidarios de unificar todas las soluciones en una única appliance. Todo esto está cambiando paulatinamente, sobre todo en las medianas y grandes cuentas. Ahora mismo, las funcionalidades de un firewall de nueva generación ofrece un rendimiento que permite manejar cualquier gran cuenta sin que exista ningún problema de rendimiento. Y por qué no decirlo, existe además un factor de cambio económico. Los costes de tener que manejar cuatro tecnologías diferentes comparados con las cuatro mismas funcionalidades que nosotros incluimos en nuestra tecnología de firewall de nueva generación, ofrecen un promedio de ganancia a nuestro favor de un 30% del coste final. El ahorro de costes es infinito en lo referente a renovaciones anuales.

Así pues, estamos siendo testigos de un doble cambio. Por un lado, las funcionalidades son las adecuadas. Pero es que además las empresas tienen un empeño claro en el ahorro de costes debido a la crisis económica, lo que hace que muchos usuarios estén optando por la unificación de cuatro tipos de soluciones en un único dispositivo debido al ahorro de costes, incluidos los costes ocultos, puesto que con 4 tecnologías hacen falta también cuatro agentes que las gestionen, etc.

Nosotros estamos viendo que nuestro discurso está siendo aceptado por las medianas y grandes cuentas, cosa que no ocurría hace cinco años. Además de las razones puramente funcionales, no podemos olvidarnos de las económicas.

¿Cómo se adapta este firewall de última generación al mundo cloud y de la virtualización?

La virtualización no es algo que demande especialmente más o menos tráfico. Da igual tener un servidor físico que virtual. Lo que aporta, sobre todo, es rendimiento. El firewall de nueva generación securiza el entorno, pero si hace 10 años las empresas contaban con un perímetro físico, eso es algo que en la actualidad no existe. El concepto de firewall de nueva generación en la parte de rendimiento permite ir a gigantescos datacenter con una solución muy potente. En la parte de securización, permite securizar el entorno. Desde la aparición de la Web 2.0 y las redes sociales, con toda la evolución de Internet en los últimos 5 años, las empresas sufren un nivel de vulnerabilidad y peligros para la vulnerabilidad considerables. El equilibrio radica precisamente en cómo gestionar correctamente toda la potencia que ofrece Internet. Tomemos Facebook como un ejemplo de análisis de tráfico no deseado. Para una empresa, Facebook no es tráfico no deseado (puesto que puede querer utilizarlo para labores de marketing), sino una herramienta que precisa de una gestión adecuada. En una gran cuenta, muchos de los usuarios utiliza Facebook para multitud de tareas de entretenimiento que, además de suponer un coste elevado en el uso del ancho de banda, supone una pérdida de productividad importante porque los usuarios están haciendo cosas que no deben hacer. El reto radica en tener firewalls de nueva generación capaces de gestionar los distintos usos de Facebook. Podemos extender este nivel de precisión a cualquier aplicación que hoy en día podamos encontrar en la red.

¿Cómo afecta el acercamiento a un proyecto con diferentes sucursales?

El concepto no ha cambiado. Lo que aportamos al concepto tradicional es que no sólo realizamos un análisis de vulnerabilidades (UTM), sino que además se gestiona el tráfico. Muchísimas empresas cuyas sucursales no navegan independientemente, sino que navegan a través de la central, introducen toda esta política de control dentro de su política de navegación. El concepto de VPN como tal no ha cambiado.

¿Qué falta en el portfolio de la compañía?

Ahora mismo, la única carencia en nuestro portfolio de seguridad (perimetral, de contenido, de datos, acceso remoto seguro) es el control de la fuga de información a través de los USB de las máquinas. No se trata de un elemento de negocio muy importante, pero personalmente sí me gustaría tener esa parte cubierta porque implicaría tener todo el conjunto cubierto.

¿Qué opina de la tendencia DLP, teniendo en cuenta la dificultad de implementar todos estos proyectos?

Como concepto, es obvio que a todo el mundo le interesa la fuga de información. Sin embargo, yo no conozco a nadie que esté trabajando específicamente en proyectos de DLP. Muchos fabricantes aportamos soluciones para evitar la fuga de información. Hoy en día, se utiliza esta vía indirecta que muchos fabricantes tenemos de afrontar esta cuestión, con aportaciones para que el usuario controle la fuga de información, pero no trabajamos con proyectos específicos o soluciones ad hoc, primero porque son muy difíciles de llevar a cabo y en segundo lugar, porque son interminables. El coste humano para las propias compañías en términos organizativos es enorme. Por eso trabajamos con soluciones indirectas.


¿Cuáles son las principales tendencias del mercado en seguridad?

Aparte del spam, que a día de hoy sigue siendo la parte predominante de Internet y que además no tiene otro objetivo más que el puramente económico, estoy seguro de que la trascendencia que hoy en día tiene el mundo de los dispositivos móviles hará que por aquí vengan las amenazas. Un móvil inteligente lleva un sistema operativo y por lo tanto vulnerable. Existe una parte mu importante como son los ataques a la Web, que nosotros tenemos resuelta con nuestro web application firewall. Las vulnerabilidades restantes en el ámbito del tráfico están suficientemente cubiertos en nuestros tres centros de control a nivel mundial.

Dentro de los entornos empresariales en los cuales la movilidad es una realidad, y en el cual ya no son los ordenadores sino los teléfonos inteligentes los protagonistas…

Lo único que existe son intentos muy incipientes de antivirus, efectivamente. Sonicwall ya tiene en el acceso remoto seguro un control de endpoint que permite, precisamente, analizar el endpoint y comprobamos que esté seguro. Nosotros no somos una compañía antivirus, no lo olvidemos. Si el usuario se conecta a nuestro sistema con un dispositivo móvil el control del endpoint permite garantizar que esté limpio y permitimos el acceso. Es muy importante controlar la identidad del dispositivo móvil para evitar el acceso remoto en caso de robo.

¿Está el usuario realmente formado a nivel de cultura de seguridad con todos los adelantos que tenemos?

Personalmente creo que existe una falta de cultura de seguridad muy importante.

¿Son las empresas responsables de la educación de sus usuarios? ¿Cómo puede subsanarse esta falta de información?

Es muy complejo, porque tampoco es función de las empresas formar a sus usuarios, a pesar de que dentro de su régimen interno sí que establecen políticas de seguridad. En el mundo de las redes sociales, donde los usuarios interactúan, la gente no se preocupa de controlar qué ocurre con las descargas. Todo se ve muy afectado por el hecho de que los enlaces provienen de personas conocidas. Tendría que haber difusión más general (televisión, etc.), en términos de divulgación.

¿Considera que existe una falta de legislación que permite estas carencias de cultura de seguridad en el usuario?

Las leyes ayudan a que los usuarios se conciencien, pero el único instrumento con el que contamos es la LOPD. Si una ley tan importante con multas significativas funciona tan mal… Nuestro aparato judicial no es comparable al estadounidense, por ejemplo. Si la divulgación no ayuda, la ley puede ayudar a concienciar al usuario.

¿Ha tocado techo el mundo PYME?

Nuestra estrategia para España se basa en nuestra experiencia con el mundo PYME a través de nuestro canal. En la actualidad se nos plantea la dicotomía de contar con soluciones corporativas con un canal que no llega ahí. Además de nuestro canal, estamos intentando llegar a la mediana y gran cuenta con nuestras soluciones. Estamos trabajando con mayoristas en la búsqueda de partners para poder ir de la mano hacia las grandes cuentas. Dicho esto, no renunciaremos al canal PYME jamás, primero por las características de nuestro país y segundo por la fidelidad de nuestro canal.

A nivel de novedades me gustaría comentar que acabamos de presentar una solución vinculada a nuestro firewall. En segundo lugar, me gustaría mencionar las pruebas de rendimiento de IXIA. Nadie ha soportado niveles de tráfico como los que han soportado nuestras soluciones, sometidas a ataques durante cuatro días.

 

0 1.856 views

 

“La seguridad de la información en la empresa ha de dejar de ser un conjunto de tecnologías para convertirse en un proceso de negocio”

Joaquin Reixa , Director Regional sur de Europa


Los grandes retos en seguridad en las empresas son la consolidación del Data Center mediante virtualización y cloud computing; la movilidad, cada día más presente en las organizaciones; y Data Leakage

Check Point ha reunido más de 1.000 profesionales y expertos en seguridad TI entre clientes, partners, prensa y analistas, en su evento anual europeo Check Point Experience, celebrado en esta ocasión en Barcelona del 4 al 5 de mayo.

El eje central del encuentro ha sido la nueva estrategia de la compañía, la Seguridad 3D, “un plan que permitirá cambiar la seguridad de la información en las empresas durante los próximos diez años”, tal y como ha apuntado Gil Shwed, CEO y fundador de la compañía, en la inauguración del evento. Según Shwed, “la seguridad de la información en muchas empresas la conforman un conjunto de tecnologías, pero esto ya no es suficiente. Es necesario que se convierta en un facilitador de negocio y para ello hay que alinear la seguridad con el resto de procesos de negocio”.


Las prioridades en seguridad han cambiado tras la aparición de Stuxnet, Wikileaks o la Operación Aurora. Los ataques y amenazas han evolucionado, son más sofisticados y hacen más vulnerables a las organizaciones poniendo en serios aprietos a los departamentos de TI. Por ese motivo, la visión de la Seguridad 3D de la compañía redefine la seguridad como un proceso de negocio que combina políticas afines a cada una de las organizaciones; ‘personas’ que es el punto más débil en las empresas ya que en numerosas ocasiones son fuente de errores con o sin intención; y el cumplimiento de las normativas vigentes, tanto internas como a nivel general. De este modo, las organizaciones elevan la protección a todos los niveles, a todas las capas del negocio para una mayor protección en todos los niveles de seguridad – incluyendo la red, datos y aplicaciones.

“Las grandes preocupaciones sobre la seguridad en las empresas de hoy en día podrían resumirse en tres: La consolidación del Data Center mediante virtualización y cloud computing; la movilidad cada día más presente en las organizaciones; y Data Leakage”, señala el CEO de Check Point.



¿En qué consiste el nuevo concepto de seguridad 3D que está promocionando ahora su compañía?

Básicamente se trata de pasar de lo que es puramente tecnología (es decir, de cómo se ha entendido la seguridad hasta el día de hoy a base de pequeños productos para solucionar problemas puntuales) a tener un concepto de procesos de negocios. Hablamos por un lado de políticas de seguridad que estén relacionadas con el negocio. Se trata de diferenciar usos: por un lado, podemos utilizar Facebook en el departamento de marketing para plantear una campaña viral de la compañía, o para chatear con tus amigos. Esta diferenciación plantea la necesidad de establecer una política de seguridad obviamente relacionada con el negocio. Obviamente, es imprescindible preocuparse de la estructura sobre la que se monta la seguridad, pero además no podemos olvidarnos de las personas. No olvidemos que el 80 u 85 por ciento de los problemas de seguridad que existen en el mundo ocurren porque alguien, en alguna parte, ha cometido un error o desconocen la política de seguridad de su empresa. Así pues, es imprescindible relacionar las políticas con las personas. Por último, es necesario contar con alguna forma de controlar que tanto las políticas como las personas cumplan con el entorno de seguridad existente. Esas son las tres dimensiones importantes: políticas, personas y el control de todo ello.

Checkpoint es de las pocas compañías que tienen integradas todas sus soluciones. Una de las soluciones que se están potenciando es el DLP. Actualmente, uno de los problemas con los que se topan todos los proyectos de DLP es la clasificación de los datos. ¿Qué avances ha hecho Checkpoint para facilitar el acercamiento de los proyectos?

Este es el gran problema de los proyectos de DLP, que parecen eternizarse en el tiempo y no acaban viendo la luz. El DLP tiene dos áreas principales a tener en cuenta. Por un lado, lo que ocurre en el 80 por ciento de los casos, tenemos a gente que bien por desconocimiento, bien por maldad, extrae datos a través de un USB o de cualquier otra vía (envío de ficheros confidenciales a través del correo, subida de archivos a un FTP, etc.). Todos estos incidentes pueden evitarse implementando el DLP en el gateway, ya que permite filtrar cualquier tipo de información saliente. Obviamente, en el puesto de trabajo puede evitarse a través de la cifrado de dispositivos o el control de puertos, delimitando el tipo de información que se puede extraer. Estamos hablando de una implementación rápida. Son proyectos de menos de un mes.

Pero además está la parte por así decirlo «clásica» del DLP. ¿Cómo clasifico mis datos? El principal problema es que en multitud de ocasiones las propias empresas ni siquiera saben dónde están sus datos. Una vez que se ha resuelto el 80 por ciento del problema, sí es posible dedicar tu tiempo a ese 20 por ciento restante, que pasa por la clasificación de datos. Precisamente el año pasado realizamos una adquisición de un sistema de clasificación de datos. A la hora de afrontar la clasificación, no me parece recomendable abordar la tarea tomando el conjunto de la empresa. Creo que es mucho más práctico tomar únicamente aquellos departamentos considerados clave que manejen información crítica. En nuestro caso podríamos estar hablando, por ejemplo, de un departamento de I+D, financiero o de recursos humanos. La clasificación debe empezar en esos departamentos. Son proyectos mucho más acotados en el tiempo y que permiten una mayor facilidad de gestión. Abordar ese 20 por ciento de forma racional te permite contemplar el proyecto con garantías de éxito. Si por el contrario se opta, como se ha hecho hasta ahora, por clasificar todos los datos de una empresa, estamos abocados al fracaso.

En la parte de proyectos de DLP, Checkpoint trabaja sobre la parte relacionada con la regulación para la correcta adaptación a las normativas existentes. ¿Cómo se abordan los proyectos en los que se trabaja con empresas multinacionales con delegaciones en distintos países con diferentes regulaciones?

Lo cierto es que en muchos casos trabajamos con regulaciones que, aun teniendo nombres distintos, son de alcance más o menos global. Es el caso, por ejemplo, de nuestra LOPD, que en una forma u otra existe en multitud de países con normativas avanzadas. Posteriormente, es cierto que existen aspectos muy específicos por países y por sectores. La flexibilidad de nuestros productos radica en que nos permiten, de una forma bastante sencilla, el adaptar tanto normas globales como normas específicas. En un sistema de protección de datos que afecte a diferentes países con diferentes regulaciones, nosotros siempre buscamos la regulación más estricta de todas las existentes. Además, nuestros productos tienen la suficiente flexibilidad como para poder adaptarnos a las particularidades de cada país. Por ejemplo, en España determinados datos pueden ser extraíbles o no, y en otro país puede ocurrir lo contrario. Sin embargo, nuestros productos nos otorgan una gran flexibilidad. Si se implementa la norma más estricta, en última instancia se cubren las normas restantes.

¿Hasta qué punto la seguridad 3D está cambiando dentro del mundo de la virtualización y el cloud computing?

Ambos conceptos están hoy en día en la mente de todas las empresas, e implementándose en casi todas. En última instancia, es irrelevante que la seguridad sea virtual o física. Bien sea de forma virtual, en una nube o en una red física, lo que nos preocupa es securizar el dato en su tránsito, tanto en el emisor como en el receptor. Desde el punto de vista de la seguridad, las cosas no cambian. Únicamente cambian desde el punto de vista teórico de la seguridad. Lo que ocurre, tal y como estamos viendo en todas las empresas que inician proyectos de virtualización y cloud computing, es que la seguridad siempre se deja para el final. Es decir: crean su virtualización, establecen el data center y, de repente, a alguien se le ocurre que hay que securizar todo a posteriori.

Si el proyecto se abordara pensando en la seguridad desde el principio, como en un proyecto clásico de networking, no habría ningún problema. Los productos que utilizamos son perfectamente virtualizables. Podemos securizar datos que pasan de una máquina virtual a otra máquina virtual que físicamente existen en la misma máquina, y el dato se puede securizar y filtrar sin problemas, aplicar DLP o detección de intrusión, si bien el appliance está también virtualizado. El verdadero problema radica en que a la hora de construir proyectos de virtualización vemos que todo el proceso de integración y virtualización se lleva a cabo correctamente, pero nadie ha reparado que entre dos máquinas virtuales el dato es tan vulnerable como entre dos máquinas físicas.

¿Cuál es el siguiente paso de Checkpoint? ¿Sigue siendo su objetivo la mediana cuenta?

Estamos en ello. Personalmente, considero que ahora mismo Checkpoint no tiene entre sus objetivos llegar a la cuenta hiperpequeña. Sin embargo, nos encontramos en una posición dominante en la gran cuenta y cada vez ganando más mercado en la cuenta mediana y pequeña, aún sin llegar a las empresas de 10 usuarios o menos. En última instancia, el software es el mismo y la estructura y arquitectura son las mismas. Lo que las diferencia es la potencia de las máquinas, la existencia o no de la virtualización y el motor de gestión del software. Hoy por hoy, nuestra gama de appliances físicos va desde máquinas realmente pequeñas para empresas de 50 usuarios hasta macroempresas.

¿Cómo afecta la situación económica en España al desarrollo de la seguridad en el sector privado?

Ahora mismo, todas las empresas se encuentran inmersas en un proyecto de reducción de costes. Pero eso también es innovación. En última instancia, lo que cuenta es que las empresas están analizando su infraestructura actual de seguridad y se dan cuenta de que el simple mantenimiento de sus sistemas dispersos y productos es carísimo. Se dan cuenta de que la consolidación de los sistemas de seguridad tiene a la larga un ahorro de costes tangible, cuantificable y fácilmente demostrable. Nosotros, que somos pioneros en la consolidación de sistemas de seguridad, nos beneficiamos porque vemos cómo crece nuestro negocio a pesar de la crisis económica. Bien es cierto que la administración pública ha sufrido cierta ralentización (no tanto como se piensa), pero en la empresa privada son cada vez más los proyectos de consolidación existentes. Es decir: el concepto de servicio se está implantando totalmente. Todo ello permite gestionar con una gran flexibilidad la funcionalidad de la seguridad que uno quiere. Bajo un mismo entorno de software, con un único contrato de mantenimiento, conduce a una reducción considerable.

¿Qué cambios habrá en la parte de canal y la certificación?

No tenemos planes de cambio en el canal, que en España funciona muy bien. Está muy consolidado. Sí es cierto que las nuevas tecnologías nos obligan a hacer un esfuerzo extra a la hora de mantener a nuestro canal al día en cuanto a tecnología y certificaciones, pero no se plantean cambios ni en el programa de partnership ni hemos pensado en hacer variaciones en la distribución. Actualmente trabajamos con dos mayoristas de valor añadido y uno que hemos agregado para llegar al gran mercado, que están funcionando bien.

 

0 1.803 views

 

AVIS ELIGE MICRO FOCUS ONWEB PARA SU SISTEMA INTERNACIONAL DE RESERVAS


· Por primera vez, las agencias de alquiler de coches Avis de todo el mundo pueden acceder al sistema de reservas central y a sus bases de datos.

La compañía mundial de alquiler de coches, Avis, ha logrado agilizar y simplificar la dinámica de su negocio gracias a la solución OnWeb de Micro Focus. Avis ha reemplazado su aplicación de sistema de reservas, altamente compleja, por la solución de Micro Focus® (LSE.MCRO.L), que les ha permitido centralizar el control y la gestión de su información, además de ayudarles a optimizar recursos y desarrollar la su lógica empresarial sin ningún tipo de impedimentos.

El reto al que se enfrentaba Avis en el origen del proyecto era, tal y como explica Moore, Vicepresidente de los Servicios Informáticos de Avis Europa, que “cuando llegamos a acuerdos comerciales con concesionarios de otros países, y especialmente a la hora de crear sucursales, nuestro sistema de reservas, denominado “Wizard”, una aplicación central green screen, resultaba altamente compleja. El coste y la dificultad técnica que entraña instalar la infraestructura de red y las terminales necesarias para implementarlo en otros países serían enormes. Además, este gasto se incrementaría debido a la necesidad de formar a los operadores para que pudieran utilizar la aplicación green screen. Por otro lado, aunque los alquileres proporcionan beneficios, la baja economía de escala que opera en los países en vías de desarrollo evitaría la justificación en términos de retorno de inversión (ROI) para semejante desembolso”.

Debido a esta serie de dificultades, este método de trabajo resultaba farragoso e ineficiente y debía ser resuelto. Además tenía otra objeción, causaba un deterioro potencial en las relaciones con el cliente.

La web como solución

Un equipo de Avis dirigido por Mike Moore propuso una solución basada en la web que podría permitir que los concesionarios accedieran al sistema de reservas desde cualquier PC con una conexión a Internet y un navegador corriente. Tras la propuesta, Avis seleccionó tres productos de software que podrían proveer esta conexión a la aplicación del sistema central.

Tras una evaluación meticulosa, que incluía el desarrollo de un sistema prototipo, Avis eligió el producto Micro Focus OnWeb. Este producto permite que Avis recopile datos simultáneamente desde prácticamente cualquier banco de datos y desempeñe su lógica comercial sin ningún tipo de impedimento. Además, permite que sea compatible con cualquier navegador de usuario o con aplicaciones Think Client. La arquitectura técnica del proyecto de Avis también incluía un firewall y Microsoft IIS Server usando SSL (Secure Socket Layer) para asegurar la seguridad del sistema y controlar el acceso de los usuarios a la aplicación. La información del usuario es almacenada en una base de datos Microsoft Access que, junto con un sistema central Satelcom, completa la conexión a la aplicación nuclear “Wizard”.

Gracias a los buenos resultados de Micro Focus OnWeb, el desarrollo del proyecto de concesionarios de Avis tan sólo llevó 4 meses desde la concepción hasta el primer lanzamiento. A partir de entonces, el desarrollo de este sistema en sus sucursales se ha ido extendiendo a gran velocidad; se han implementado sucursales en más de 23 países del Medio Este, África, Asia y el Este de Europa. El proyecto completo incluirá 40 países, 10 más de los señalados en el proyecto original.

Con la aplicación Micro Focus OnWeb, los agentes de las sucursales pueden establecer una conexión web segura al sistema de reserva de la intranet corporativa de Avis. De este modo, las reservas online se realizan en tiempo real.

Retorno de la inversión

“El principal atractivo de la aplicación extranet”, explica Moore, “es que los usuarios no necesitan ningún hardware específico o software para acceder a ella. Tampoco necesita ninguna preparación especial para utilizarla. La complejidad de acceso que implicaba la green screen se ha traducido ahora en una web intuitiva realizada por Micro Focus OnWeb. Parte del éxito de la expansión de esta solución se debe a que en la mayoría de los países la implantación ha sido realizada por responsables locales, sin necesidad de enviar a staff de los Servicios TI de la compañía”.


 

0 3.106 views

 

INTA CONSOLIDA Y FORTALECE SUS SISTEMAS DE

SEGURIDAD

CON TECNOLOGÍA DE PALO ALTO NETWORKS

 

Con PA-4020, este organismo ha conseguido una mayor visibilidad y control de aplicaciones y usuarios, una mejor prevención de amenazas, y un ahorro de costes de alrededor del 20%

El Instituto Nacional de Técnica Aeroespacial Esteban Terradas (más conocido como INTA) ha confiado en Palo Alto Networks, compañía de seguridad de red y pionero en el desarrollo de firewall de nueva generación, para asegurar sus aplicaciones y consolidar la protección de sus infraestructuras tecnológicas.

Concretamente, el organismo se ha decantado por la solución PA-4020, distribuida en España a través de Exclusive Networks Iberia, la cual, gracias a sus funcionalidades, puede ser utilizada como firewall primario en la puerta de acceso a Internet, empleando todas sus características: IPS, URL, AV, y reconocimiento de aplicaciones.

Fundado en 1942, INTA es un Organismo Público de Investigación especializado en el desarrollo tecnológico aeroespacial español, y dependiente del Ministerio de Defensa. Entre sus principales funciones cabe destacar: la adquisición, mantenimiento y mejora continuada de todas aquellas tecnologías de aplicación en el ámbito aeroespacial; la realización de variados ensayos para comprobar y certificar materiales, componentes, equipos, subsistemas y sistemas de aplicación en el campo aeroespacial; y el asesoramiento técnico y la prestación de servicios a entidades y organismos oficiales.


Asimismo, actúa también como centro tecnológico del Ministerio de Defensa, y realiza proyectos de investigación, tanto en solitario como en colaboración con otros organismos estatales nacionales e internacionales.

Objetivo: Control y seguridad de un entorno heterogéneo

Con más de 1.600 empleados repartidos entre las Sedes de Torrejón de Ardoz, Huelva y Canarias, INTA partía de la siguiente estructura de seguridad: una red integrada por un doble nivel de protección (dos firewall en clúster, uno para las redes internas destinado a la salida a Internet, y, otro, para situar las máquinas que ofrecen servicio al exterior) y diferentes appliances empleados para fortalecer dicha seguridad (IDS, Proxy, filtrado de URLs, antivirus, antispam, VPN, etc.). A todo ello había que añadir la implementación, configuración y operación de los controles de seguridad informática (firewall, IPS/IDS, antimalware, etc.), monitoreo de indicadores de controles de seguridad, primer nivel de respuesta ante incidentes (típicamente a través de acciones en los controles de seguridad que operan), investigación de incidentes de seguridad y cómputo forense (2° nivel de respuesta ante incidentes), soporte a usuarios, auditorias, etc.

Dentro de este contexto, el objetivo del proyecto consistía en controlar, desde un solo punto, la configuración y los logs de los sistemas, poder aplicar políticas de seguridad por aplicaciones y no por puertos, así como lograr mayor rapidez en el conjunto de la solución. En este sentido, y después de analizar todas las necesidades, INTA optó por la solución PA-4020, y no sólo porque Palo Alto ofreciera un producto innovador pero probado, sino porque era capaz de resolver en un sola solución, todos los problemas a los que INTA se enfrentaba. Además, también influyó su facilidad de uso, su potencia, así como la flexibilidad a la hora de poder implementar políticas de seguridad, sin olvidar su capacidad de integración en casi cualquier entorno.

“Desde el área de informática, y, en concreto, desde el departamento de seguridad, es ingente la labor que tenemos que realizar para poder dar servicio y proporcionar seguridad en un entorno tan amplio (multitud de edificios, grandes extensiones y desplazamientos) y heterogéneo donde conviven proyectos militares y civiles, con multitud de información, hardware, software”, afirma Jesús Garrido Antonio, responsable de Seguridad Informática y de Informática de Gestión y SAP. “Aunque llevamos pocos meses con el producto funcionando, hasta la fecha, el resultado ha sido muy satisfactorio, sobre todo a nivel usuario, ya que su experiencia al navegar por Internet es mucho más ágil, y ya no es necesario realizar logins al salir a Internet, por estar completamente integrado con el Directorio Activo”, añade Garrido.

La búsqueda de una solución de protección absoluta

Con un número importante de appliances funcionando sobre ella, uno de los problemas con lo que contaba la red de INTA era que con las soluciones instaladas no se conseguía resolver el problema del filtrado por aplicaciones. “El agujero del puerto 80 -por donde todo entraba y salía- seguía existiendo, por tanto no se solventaba el peligro de amenazas constantes en la seguridad de la información de nuestros sistemas”, explica Garrido. “Asimismo”, añade, “aunque para controlar la seguridad contábamos con firewall, IPS, URL, AV y Proxy de empresas muy conocidas en el mundo de la seguridad , en INTA sufríamos ataques y hacking del servidor web, infección por virus en máquinas (incluidos servidores), y sobre todo un problema de control que, con el paso de los años, iba siendo cada vez más importante, ya que la mayoría de las aplicaciones utilizaban el puerto 80 para funcionar, impidiendo la aplicación de políticas que monitorizaran o controlaran su uso”, añade Garrido.

Todo esto, sin duda, suponía graves consecuencias para INTA, ya que la organización se enfrentaba al hecho de tener que recuperar información mediante la realización de backups, y a invertir muchas horas laborales para solucionar este tipo de problemas. De igual manera, la constante amenaza a la que se veía sometida la información sensible, el obligado cumplimiento de normas y regulaciones nacionales e internacionales, y la pérdida de prestigio –consecuencia directa de todos estos problemas- llevaron a INTA a buscar una solución definitiva que resolviese todos estos inconvenientes.

Otros retos a los que debía enfrentarse la solución de Palo Alto era la falta de operatividad a la hora de monitorizar y gestionar cambios, lo que implicaba a muchos elementos como punto de fallo. Además, la trazabilidad de las actividades de los usuarios se volvía muy complicada, y obligaba a plantearse lanzar un proyecto de correlación de eventos. “Todo esto hacía que el TCO se disparara al tener que pagar muchos mantenimientos a compañías distintas. Y la solución no era ni mucho menos completa ni rápida”, concluye Garrido.

Un Proceso de Implantación estructurado en dos fases

El proceso de implantación tuvo dos fases claramente diferenciadas: Una puramente técnica, que se resolvió con agilidad, seguida de otra enfocada en la gestión del cambio a nivel organizativo.

Así, primeramente se procedió a migrar la configuración de los firewall en la salida al exterior al propio de Palo Alto. Para ello, fue necesario implementar la conexión de los cortafuegos con el directorio activo de manera que se pudieran aplicar las políticas de seguridad por grupos de usuarios o usuarios en particular. Cabe mencionar la dificultad añadida a la que tuvo que hacer frente el equipo técnico de Palo Alto, ya que INTA dispone de equipos científicos, con tecnologías diferentes (MAC, Linux, Clúster de Computación Numérico, Windows), y dichos elementos también necesitaban de conexión al exterior y debían integrarse asimismo en el control de dominio y de Palo Alto.

La configuración se completó con la introducción de las políticas de seguridad, en relación con las aplicaciones que en un principio se iban a dejar pasar y que estaban gestionadas por otros appliances: Filtrado URL, IPS, antivirus, y otros elementos. Una vez finalizado este proceso -que no duró más de dos semanas- se llevaron a cabo las configuraciones necesarias en la red de INTA para posibilitar la introducción del firewall en el punto adecuado de la arquitectura de seguridad. Tras esto, se inició un periodo de pruebas.

“Un día después de la instalación de la solución de Palo Alto, ésta ya detectó 23 máquinas infectadas con spyware, además de otros tres equipos contagiados por el gusano Conficker, e incluso, un usuario con un programa con funcionamiento anómalo, que hacía miles de conexiones a Internet, sólo con conectar el firewall a nuestra red”, afirma Garrido.

Tras la realización de los pasos anteriores se ejecutó la fase de producción, y se emprendió un proceso de gestión del cambio a nivel organizativo, que fue, si cabe, el aspecto más relevante de la implantación, al tener el INTA grupos de personal con intereses muy variados (desde el ámbito científico/tecnológico, al militar, o el administrativo).

Control de aplicaciones y ahorro de costes

Gracias a la instalación de PA-4020, INTA ha logrado una mayor visibilidad y control de aplicaciones y usuarios, una mejor prevención de amenazas, y un ahorro de costes de alrededor del 20%, ya que ahora no es necesario renovar los soportes de todas las soluciones con las que se contaba en el pasado, por haber sido sustituidas por licencias de Palo Alto Networks. Asimismo, INTA también ha obtenido un ahorro no cuantificable en horas de trabajo del personal de seguridad en cuanto a configuración, monitorización y revisión de logs, puesto que los trabajadores sólo deben “estar pendientes” de un único aparato.

“Por otro lado, los informes diarios automáticos que genera el firewall (sobre las vulnerabilidades, máquinas infectadas con virus, usuarios con más accesos, URLs bloqueadas, etc.), simplifican mucho la labor de los administradores, y justifican y dan valor a todo el área de seguridad. Como administradores de seguridad, las ventajas son todavía mucho mayores, y nos ha simplificado mucho la vida a la par que ha aumentado considerablemente la seguridad del sistema”, concluye Garrido.

 

0 2.277 views

 

El Ayuntamiento de San Martín de la Vega acelera

su entrada en la Administración Electrónica

Con el appliance NETASQ U450 integrado dentro de su red informática, el consistorio madrileño ha conseguido resolver sus problemas de seguridad en la red


Inmerso en un proyecto de modernización total de sus aplicaciones y expedientes, el Ayuntamiento de San Martín de la Vega ha seleccionado la tecnología de NETASQ, compañía especializada en el mercado de seguridad de redes, para solventar sus requerimientos de seguridad en la red.

Concretamente, el consistorio madrileño se ha decantado por el appliance NETASQ U450, una solución completa de protección proactiva escalable que integra funciones de seguridad de red, (Firewall IPS/IDS) y de movilidad (PKI, IPSec y SSL VPN). Dicha herramienta combina la prevención de intrusiones con el análisis en tiempo real de la red, y, además, gracias a sus capacidades de filtrado de contenidos, facilita la realización de teletrabajo.

El appliance de NETASQ se integra dentro de la red informática del ayuntamiento, compuesta por 3 DMZs. La primera de ellas alberga diversos servidores de aplicaciones o de bases de datos; en la segunda se hallan todas las dependencias a las que tienen que tener acceso los servidores; y la tercera incluye una conexión IPSec, a través del firewall, con la red que utilizan para conectar con la red interministerial SARA, que, a su vez, facilita acceso a DGT, y permite expedir certificados digitales, etc.

Necesidad de una protección efectiva

Con cerca de 70 personas en plantilla, entre administrativos, técnicos, y demás personal especializado, el Ayuntamiento de San Martín de la Vega partía de la siguiente estructura: un punto central (el ayuntamiento) y cuatro sedes remotas que requerían información del ayuntamiento (fundamentalmente consultas al padrón). Este proceso se venía realizando, bien de forma presencial, desplazándose hasta el consistorio, o bien vía conversaciones telefónicas.

Además de estos factores, el ayuntamiento presentaba también algunas otras carencias, como la inexistencia de un firewall para la protección de ataques, un sistema antivirus que no cubría satisfactoriamente las necesidades de seguridad, la imposibilidad de separar servidores de PCs, y la ausencia de un buen sistema de filtrado de contenidos, necesario para poder trabajar desde el exterior del consistorio.

Un eficaz despliegue del proyecto

Para solventar todas estas necesidades, y tras estudiar diversas opciones, fue finalmente la oferta de NETASQ (appliance NETASQ U450) la que mejor se adaptó al principal objetivo del ayuntamiento: acometer un proyecto de modernización total, tanto a nivel de aplicaciones como de expedientes, con el fin último de informatizar todos los trámites y así dar paso a la administración electrónica.

Fases de implantación

La implantación de este proyecto de Administración Electrónica se ha llevado a cabo en varias fases. Así, primeramente se procedió a la instalación de un software propietario destinado a la gestión de una administración pública, para, seguidamente, acometer una actualización del hardware (instalación de NETASQ U450), establecimiento de túneles (SSL, VPN, IPSEC), y reorganización de las DMZs.

Mayor seguridad y una comunicación eficiente

Después de un año y medio funcionando, en el ayuntamiento están muy satisfechos por los buenos resultados obtenidos con el appliance de NETASQ.

Tras un rápido establecimiento, “desde el ayuntamiento sabíamos lo que queríamos y fue sencillo plasmarlo”, y la realización de pruebas a tres bandas para el correcto funcionamiento de los túneles IPSec (Informática Comunidad de Madrid, Ayuntamiento y NETASQ), el appliance U450 ya se encuentra funcionando a pleno rendimiento.

Un ayuntamiento “siempre” orientado a sus ciudadanos

En lo que a proyectos de futuro se refiere, en el ayuntamiento seguirán trabajando para ofrecer un mejor servicio a los vecinos. Así, entre sus planes a medio plazo se encuentra el de desdoblar el appliance U450 y dotar al entorno de alta disponibilidad.

 

0 1.834 views

 

Entrevista : María José Miranda, Country Manager de NetApp Iberia

 

NETAPP INNOVATION 2011, UNA TECNOLOGÍA DE CINE

NetApp Innovation 2011 ha conseguido reunir a los más importantes clientes, partners y alianzas estratégicas de la compañía. Durante el evento se han analizado las tendencias tecnológicas más destacadas como la virtualización, el cloud, la eficiencia y las  infraestructuras compartidas.

El nivel de participación ha sido un éxito con 44 patrocinadores entre partners de canal y alianzas tecnológicas, 36 demos de cliente y alrededor de 700 asistentes.


1.-¿En qué ha consistido NetApp Innovatión 2011?

Durante esta cuarta edición de NetApp Innovation hemos analizado las últimas tendencias del mercado en almacenamiento y gestión de datos. Es un evento donde compartimos experiencias con nuestra red de partners y red de clientes.

Cada año cambiamos el escenario y este año la empresa ha elegido el cine como marco para la celebración del evento, no sólo porque contamos con una tecnología “de cine”, sino también por el importante papel que nuestra tecnología tiene para esta industria, pues no hay que olvidar que ha sido clave para la realización de películas como Avatar, El Señor de los Anillo o Star Trek, entre otras.

En cuanto a las presentaciones hemos contado con:

Ricardo Maté, Vicepresidente de la región Productivity de NetApp en EMEA, que ha inaugurado la jornada con una conferencia sobre la situación actual del mercado, el cambio de paradigma en la tecnología y la evolución hacia el cloud y las infraestructuras compartidas. Ricardo ha mostrado a todos los asistentes una presentación sobre la ecuación coste valor que se encuentran los CIOs actualmente para explicar la relación entre lo que se invierte y el retorno del valor a la compañía.

Por otro lado, Javier Martínez, Director Técnico de NetApp, ha sido el encargado de ofrecer las claves de las nuevas infraestructuras TI compartidas y sus ventajas en cuanto a flexibilidad y eficiencia.

Finalmente, hemos realizado un debate sobre cloud (“Todo lo que siempre quiso saber sobre cloud pero nunca se atrevió a preguntar”) en el que han participado los directores generales de Cisco –Jose Manuel Petisco-, VMware –Alfonso Ramírez-  y Pascual Lope Antón, Director de Servicios de Outsourcing INDRA, y ha sido moderada por Luis Altés, director general de IDC Iberia.


2.- Tenéis una facturación dividida entre software, hardware y un pequeña parte servicios, ¿Cómo veis el futuro? ¿Va a cambiar?

Nosotros tenemos un producto único, nuestras cabinas de almacenamiento, que llevan incorporadas unas controladoras que tienen el software, conocido como Data On Tap y que es el que le da toda la riqueza en funcionalidad al hardware para ser mucho más eficiente y más flexible. Por tanto, el porcentaje de cada parte en la venta dependerá de las métricas que establezca NetApp. No comercializamos el software y hardware por separado.

Por otro lado, está la parte de servicios que comprende:

1.- El mantenimiento de los productos (3,4 o 5 años, relacionado con la garantía y dependiendo de lo que el cliente contrate)

2.- Servicios profesionales para implantar estos sistemas en cliente final.

Realmente, nosotros comercializamos muy pocos servicios profesionales ya que contamos con un ecosistema de partners que se certifican y se encargan precisamente de todo ello, con la máxima eficacia.

3.- ¿Cuál ha sido la evolución de NetApp durante los últimos años en materia de adquisiciones?

Las estrategias en cuanto a adquisiciones se gestionan a nivel corporativo (sede). NetApp es una compañía que ha nacido con un producto (cabinas de almacenamiento) y ha ido creciendo en tres dimensiones: funcionalidad de software, capacidad de disco y performance del sistema, lo que nos ha hecho llegar hasta donde nos encontramos actualmente.

A parte, se han ido adquiriendo compañías que se han integrado con nuestros productos para hacer funciones concretas de enriquecimiento. Nosotros no hemos tenido una política agresiva de compras, ha sido un crecimiento orgánico y las compañías que hemos adquirido han sido para mejorar el funcionamiento de nuestras soluciones.

4.- Recientemente firmasteis el acuerdo Imaging Virtually Anything, ¿Nos puedes mencionar referencias y nuevas soluciones?

Las tres compañías firmamos, hace ya casi un año, una alianza conjunta para certificar una arquitectura de referencia en el mercado para ofrecer sistemas de cloud, bien sea una cloud privada en un cliente o bien sea una cloud pública en un proveedor de servicios.

Este acuerdo entre Cisco, VMWare y NetApp permite suministras nuevas arquitecturas que ayuden a los clientes que estén evolucionado a los centros de datos virtualizados a que éstos sean más eficientes, dinámicos y seguros.

Las tres compañías lanzamos conjuntamente la Arquitectura de Diseño Multi-tenancy, una solución probada que aísla los recursos de TI para mejorar la seguridad en los entornos virtuales y de clouds empresariales. Ayuda a las empresas, los integradores de sistemas y los proveedores de servicios a desarrollar servicios de cloud internos y externos para mejorar la seguridad global a lo largo de la las capas de computación, networking, almacenamiento y gestión de una arquitectura unificada.

Además, incrementa significativamente la agilidad del negocio, ayuda a los administradores de TI a establecer la calidad del servicio para cada capa de recurso y para suministrar unos niveles de rendimiento del servicio consistentes para las aplicaciones de cada capa.

El acuerdo ha ido evolucionando y hace pocos meses lanzamos al mercado un nuevo producto –FlexPod™-, una solución de centro de datos previamente validada, que toma como base una infraestructura compartida flexible que puede escalarse fácilmente, optimizarse para una gran variedad de cargos de trabajo de aplicaciones combinadas o configurarse para infraestructuras de servidor o puestos de trabajo.

En cuanto a clientes, tenemos ya bastantes referencias en éste área; RNE, Sistemas de Lotería y recientemente hemos firmado un acuerdo con Indra.

 

5.-El ahorro energético se plantea como una de las claves de éxito de los próximos años ¿De qué manera contribuye NetApp a ello?

La innovación de NetApp ha repercutido siempre en eficiencia y ésta se traduce, en gran parte, en ahorro de energía. Con software en las cabinas (que no ocupa ni consume más) conseguimos grandes ahorros en la capacidad en disco necesaria, lo que repercute en ahorro en la inversión inicial y, lo que es más importante, en espacio físico, energía de alimentación y refrigeración. Nuestros ahorros demostrados van del 30% al 80% dependiendo de entornos y aplicaciones como se ha podido ver en los distintos casos de éxito de clientes que hemos tenido en la exposición. También permitimos hacer esto con almacenamiento ya existente en el cliente y que no esté amortizado, podemos dar mucha eficiencia con nuestras cabinas a almacenamiento heterogéneo existente. En este caso no se genera un ahorro inmediato pero limitas en la misma proporción la necesidad de crecer. NetApp ha recibido precisamente el primer reconocimiento “Energy Star” del Gobierno de US por ahorro energético en nuestro Datacenter de North Carolina con un PUE de 1,05 muy por debajo de los estándares del mercado.

6.-Flexibilidad, eficiencia y optimización de gastos son los parámetros que todas las compañías buscan implementar en su negocios ¿Cómo les puede ayudar NetApp?

Flexibilidad y eficiencia están en nuestro ADN. Debido a nuestro crecimiento orgánico en almacenamiento, tenemos una única familia de productos que se dimensiona en tres dimensiones: capacidad, rendimiento y funcionalidad. Es realmente un almacenamiento unificado que permite todo tipo de interoperabilidad entre cualquier cabina, escalabilidad, incluida la horizontal y por tanto total protección de la inversión. Esto da a nuestros clientes mucha flexibilidad, pero ésta también  se manifiesta en la forma sencilla de operar todos los sistemas, es igual en toda la gama.

Sobre eficiencia ya he comentado en el punto anterior, pero también la gran flexibilidad proporciona eficiencias inferidas en personal para operar los sistemas.

7.- ¿Qué valores diferenciales ofrece la tecnología NetApp con respecto a la competencia?

La flexibilidad y eficiencia. Todo ello imprime ahorros en capacidad y sobre todo permite a nuestros clientes hacer los procesos de forma diferente y ser mucho más eficientes para su empresa: cómo provisionar un nuevo servicio más rápido, cómo tener un backup en su ventana de tiempo, cómo recuperar en breve tiempo de plazo.

8.- ¿Cuál sería el CPD del futuro?

Como el Flexpod que has podido ver en la zona de exposición. En un rack tenemos servidores físicos y virtuales además de almacenamiento. Esto es la consecuencia de nuestra alianza IVA, con CISCO y VMWare. Esta configuración es flexible y se puede dimensionar según las necesidades reales del cliente.

 

0 1.393 views

 

Declaraciones de Olof Sandstrom, Director de Operaciones de Arsys


1. Situación actual del mercado de CPD en España?

Actualmente, el mercado TIC en su conjunto está atravesando una transformación debido a la madurez de las tecnologías de virtualización y cloud computing experimentada en los últimos años y a la necesidad de contar con entornos de máxima eficiencia que, también, sean soluciones de alto rendimiento y resulten fáciles de gestionar para el cliente final.

Para satisfacer estas necesidades del mercado, en Arsys pusimos en marcha un nuevo Centro de Datos en 2009 con los últimos avances tecnológicos en eficiencia energética y disponibilidad y hemos lanzado al mercado soluciones IaaS como CloudBuilder. Este servicio permite que sus clientes gestionen su propio Centro de Datos virtual para proyectos tecnológicos, con total flexibilidad y un sistema de pago por uso de máxima eficiencia. De este modo, nuestros clientes pueden gestionar su propio CPD por sí mismos, pero sin preocuparse por los numerosos aspectos que esto implica: acondicionamiento de las instalaciones, seguridad física y lógica, recursos humanos y económicos…

También estamos afrontando diversos proyectos de consolidación y virtualización de nuestras plataformas, que nos han permitido reducir el número de servidores en producción con un ratio de 6:1 que alcanzará el 80:1 cuando concluyan. Este ratio nos permitirá simplificar nuestro Plan de Recuperación de Desastres (Disaster Recovery Plan, DRP) y elaborar un DRP total y en caliente sobre la plataforma de hosting compartido, que resultará pionero en el mercado. Este proceso de consolidación forma parte de nuestros objetivos de eficiencia energética, que han conseguido ya reducir nuestros costes de actividad en un millón de euros anuales y disminuir un 20% nuestro consumo eléctrico.

2. Está cambiando el concepto de Data Center, como es el CPD de nueva generación?

Efectivamente, el concepto de centro del proceso de datos ha sufrido cambios muy importantes en los últimos tres años. La expansión de las tecnologías de virtualización, los servicios en la nube y la notable mejora de los sistemas de almacenamiento aplicados a entornos medios han supuesto, en su conjunto, un cambio drástico en la forma en la que se concibe un centro de proceso de datos.

Anteriormente a la aparición de estas tecnologías, en nuestro país era frecuente que los armarios de servidores consumieran entre 2 y 5 kilovatios. Esto supone que toda la estructura del centro está diseñada para absorber esos niveles de potencia eléctrica y, por supuesto, climatizar las salas dentro de ese orden de magnitudes.

Algunos centros ya trabajaban con densidades de potencia más elevadas, pero en términos generales se trataba de proveedores de servicios que intentaban adaptarse a las nuevas tecnologías que iban viendo llegar. La mayoría de los centros seguían trabajando con densidades de potencia del orden de 1 kilovatio por metro cuadrado. Actualmente, pensar en densidades de potencia entre 2 y 3 kilovatios por metro cuadrado es lo más frecuente. Por supuesto, hay centros que trabajan con densidades superiores a los 3 kilovatios, pero lo más habitual es estar entre 2 y 3.

Esta tendencia supone un aumento muy considerable de la densidad de servicios que se prestan por metro cuadrado del centro de proceso de datos. Y, hasta no hace mucho, los servidores corrían bastante holgados, teniendo una capacidad de del proceso muy superior a la que se estaba utilizando. Actualmente, la tendencia es que los servidores tengan sus procesadores por encima del 50% de carga, mientras que hace unos años lo normal era que apenas llegaran al 10%. Probablemente, este es el mayor reto al que se enfrentan la mayoría de las organizaciones, el que no recorra este camino no será eficiente en los próximos años, ya que mientras su organización necesita 10 servidores para hacer un trabajo, su competencia hará lo mismo con solo 2 de características similares (seguramente, con más memoria pero con la misma CPU).

Esto acaba provocando que para lo que antes necesitábamos 40 armarios de servidores, ahora solo necesitamos cinco, con todo lo que ello implica. Estamos hablando de un centro de proceso de datos típicamente más pequeño en metros cuadrados, aunque con una densidad de potencia muy mayor.

Este cambio también se ha visto llegar en el equipamiento industrial que da soporte a los centros. La evolución que han sufrido tanto los sistemas de alimentación ininterrumpida, como los sistemas de climatización, de monitorización, etc. ha sido también muy notable en los últimos cinco años. Así, nos encontramos actualmente con sistemas industriales que incorporan funcionalidades muy avanzadas que aumentan significativamente tanto la fiabilidad, como la eficiencia de los centros de procesos de datos.

Combinando estas dos realidades, se está pasando de considerar el PUE como un indicador clave para medir la eficiencia del CPD a medir el CADE de los centros de datos. El indicador CADE nos da una idea del grado de aprovechamiento del centro. Este grado de aprovechamiento se mide combinando el PUE con los nivel de ocupación de las salas técnicas y el nivel de carga de los procesadores de los servidores instalados.


3. Qué papel juega la seguridad en este nuevo concepto de Data Center?

Dentro del centro de proceso de datos, la seguridad es un aspecto absolutamente crítico. También es cierto el concepto de seguridad dentro de un centro difiere significativamente del concepto de seguridad tecnológica que se maneja habitualmente.

En un centro de proceso de datos, la dimensión de la seguridad que toma más relevancia es la disponibilidad. Aunque siempre vamos a tener que abordar la seguridad del centro desde una perspectiva integral, combinando de una forma coherente la seguridad física, la industrial, la de las personas y la de las tecnologías de la información.

Combinar estos mundos es un reto enorme, ya que en la inmensa mayoría de las organizaciones cada una de estas vertientes de la seguridad depende de una persona diferente, o incluso de un departamento diferente dentro de la organización.

Tal vez, el gran reto la seguridad dentro de un centro de proceso de datos no será tanto cómo mejorar cada una de las vertientes de seguridad, sino cómo hacerlas convivir e interaccionar entre ellas.

El desarrollo de un modelo que permita interoperar los sistemas de seguridad física, de vigilancia, de monitorización del equipamiento industrial, del plan de prevención de riesgos laborales, de comunicaciones, de servidores, etc. es probablemente una de las iniciativas más atractivas con las que nos vamos a enfrentar los profesionales de la seguridad en los próximos años.

En cualquier caso, hay que tener claro que, aunque cada uno de estos aspectos de la seguridad del centro de proceso de datos funciona por separado, son todas y cada una de ellas absolutamente imprescindibles para poder contar con unos niveles de servicio adecuados. Es tan importante tener monitorizado el sistema de alimentación ininterrumpida para detectar cualquier alarma o situación anómala, como tener monitorizado el más importante de los servidores. Es tan importante tener un buen control de acceso físico a las instalaciones como tener un buen control de acceso lógico a los sistemas de información.

Digamos que el entorno industrial e informático de un centro de proceso de datos debe establecer en unos niveles de seguridad que sean coherentes entre sí.

4. En entornos Cloud, como ha cambiado el paradigma de la seguridad?

Los entornos en la nube han resuelto una parte muy importante de los problemas de seguridad tradicionales que teníamos cuando trabajábamos en entornos físicos.

Seguramente, una parte importante de los problemas de seguridad que se suelen atribuir a los entornos en la nube se derivan más del desconocimiento de la naturaleza de estos entornos que de los problemas reales que puede haber. Al fin y al cabo, los servidores en la nube no acaban siendo más que servidores, que tienen los mismos problemas de seguridad que puede tener cualquier servidor físico. Si el sistema operativo sobre el que está montado un servidor tiene vulnerabilidades, las va a atender exactamente igual en un servidor físico en un servidor en la nube. Si un servidor no está adecuadamente protegido a nivel de red mediante cortafuegos o sistemas de detección y prevención de intrusiones, estará desprotegido tanto si está montado sobre una máquina física, como sí lo está sobre un entorno virtualizado en la nube.

Por otra parte, aspectos como la alta disponibilidad de los servidores y en un sentido más amplio de los sistemas de información, siempre ha supuesto un reto para los departamentos de informática. Se trataba de tecnología cara y que normalmente no era fácil de desplegar, lo que acababa derivando en que sólo se aplicaba a los sistemas más críticos de la compañía.

La aparición de los entornos en la nube y su rápida expansión nos permiten extender la alta disponibilidad prácticamente a cualquier servidor y a cualquier sistema, a un coste mínimo. El propio sistema está concebido desde el principio para que, en caso de que se produzca cualquier caída de servicio, el servidor virtual desde el cual se está prestando el servicio se traslade automáticamente a otro servidor físico que sí esté en condiciones en ese momento para continuar prestando el servicio. Esto supone un avance tremendo desde el punto de vista de la dimensión de disponibilidad de la seguridad.

Por otro lado, la segregación de entornos de desarrollo, preproducción, y producción también había supuesto habitualmente un coste adicional muy elevado para las organizaciones, al tiempo que implicaba un montón de horas de trabajo para mantener los tres entornos.

Los sistemas en la nube nos permiten desarrollar y segregar estos tres entornos de una forma sencilla y económica. Disponer de estos entornos segregados permite a las compañías desarrollar y probar de una forma mucho más intensa y segura. Como consecuencia de esto, cuando los sistemas se pasan a producción están mucho mejor probados y ha habido ocasión de depurar cualquier error pudiera haberse dado en las fases tanto de desarrollo como de pruebas.


5. Cuáles son los planes de expansión de Arsys, que objetivos os habéis marcado para este año?

Nuestros principales objetivos pasan por el cloud computing, que es una apuesta estratégica para Arsys, así que queremos reforzar nuestra cartera de servicios con soluciones tecnológicas dirigidas a las empresas que quieren integrar las ventajas competitivas de la nube en sus modelos de negocio, y quieren hacerlo con las mayores garantías tecnológicas. Calculamos que este año el cloud computing supondrá ya un 10% de nuestros ingresos y esperamos que alcance el 40% en 2012.
Directamente relacionado con el cloud hosting y las Infraestructuras como Servicio, continuaremos potenciando nuestra línea de negocio de Soluciones Avanzadas, especializada en el diseño de propuestas e implementación de desarrollos tecnológicos a medida para la mediana y gran empresa, que está priorizando la implantación de soluciones IaaS en la gestión de sus sistemas informáticos.

6. Qué valor diferencial ofrece Arsys en sus productos y servicios?

El principal valor diferencial de Arsys reside en que no nos consideramos una empresa “de producto”. Arsys es una empresa que ofrece un servicio integral a sus clientes, una solución para sus necesidades tecnológica, no sólo unas características técnicas concretas. Arsys permite a las empresas centrarse en su negocio, integrar la tecnología en sus procesos con total tranquilidad, sin preocuparse por los aspectos técnicos que envuelven a la operativa de un CPD y los números recursos económicos que precisa.

7. Novedades para este año ( servicios y productos)

Las novedades que presentaremos este año están marcadas por la evolución en la forma de usar la tecnología que está suponiendo el cloud computing y su aplicación al mercado de servicios para empresas. Estamos hablando de servicios integrales que permiten a las empresas contar exactamente con la infraestructura TIC que necesitan cuando la necesitan, sin costes de implantación, con un sistema de pago por uso y alta disponibilidad.

También estamos implantando una serie de acciones que forman parte de los nuevos ejes estratégicos de nuestro programa de Canal (Servicio Especializado, Desarrollo de Herramientas de Productividad, Formación Técnica y Asesoramiento Comercial) dirigidas a los más de 25.000 partners comerciales de Arsys.

 

0 1.802 views

 


Portavoz: VenanzioCipollitti, presidente del GrupoInteligensa


SISTEMAS DE PAGO POR TARJETA, NUEVA METODOLOGÍA

1º  Situación actual del mercado de implementación de sistemas de pago e identificación, en Latinoamerica.

En cuanto a los sistemas de pago, tenemos que hacer referencia al adquiriente, a los puntos de venta que están implantándose masivamente y que están listos para admitir tarjetas con chip por contacto y próximamente sin contacto y del lado del emisor, los bancos que emiten el plástico. Actualmente hay un proceso de migración de tarjetas de crédito y débito a tecnología EMV (EuroCard / MasterCard y VISA),que es la tarjeta que sustituye la banda magnética por un chip, pero también próximamente, dada la influencia de sistemas contactlessque están popularizándose en Estados Unidos, dentro de un par de años, con la integración de micropagos, tendremos la tarjetas con EMV igual que las tarjetas por contacto y sin contacto. Estas son las tendencias en América Latina en cuanto a sistemas de pago. Sin embargo, los sistemas de pago que han sido tradicionalmente manejados por la banca y las procesadoras, ahora también están siendo utilizados por el sector del transporte y las telefónicas, porque esos dos sectores tienen acceso a las masas, muchas de ellas no bancarizadas, lo cual está cambiando totalmente la forma de pago.

En cuanto a los documentos de acreditación, tradicionalmente han sido manejados por carnet, son documentos de papel que también están migrando a tarjetas chip inteligentes y a pasaportes inteligentes con su chip. Estos documentos también pueden ser por contacto y sin contacto.

Esta situación está incidiendo muchísimo enLatinoamérica ya que esta región ha pasado de un sistema muy básico de identificación a un sistema extremadamente avanzado, sin pasar por la etapa intermedia de un sistema que no tuviera el chip; por lo tanto, estamos pasando de la cédula de papel muy básica a un documento chip inteligentísimo. No debemos descartar aquí lo que es la incursión de la tarjeta inteligente del sector salud para identificar a las personas, visto desde la comunidad médica.

2º ¿Qué diferencias hay con el mercado Europeo?

Las diferencias están referidas a la competitividad en cuanto a la ubicación de las grandes fábricas de tarjetas, que están precisamente ubicadas en Europa. Por otra parte, la velocidad de negociación y de cierre de las operaciones entre los fabricantes y los clientes es mayor en Europa que en América Latina, y eso hace que el mercado europeo sea más agresivo.

3º ¿Qué servicios va a ofrecer Inteligensa en Europa?

Ponemos a disposición de las organizaciones financieras, de las empresas de todos los sectores y también del sector gubernamental,la tecnología más avanzada en materia de tarjetas inteligentes, identificación y autenticación para atender las necesidades del mercado español. En ese sentido, nuestro portfolio de productos incluye desde tarjetas de identificación, de telefonía prepago, GSM, tarjetas bancarias, comerciales, contactless y soluciones de autenticación; hasta importantes innovaciones como la tarjeta con clave dinámica (One Time Password), la tarjeta iDCT (InteligensaDisplayCardToken), el i-Tok (token físico de autenticación OTP) y el servidor de autenticación Intelisafe.


4º ¿Cómo están cambiando los sistemas de ataques y fraude a las tarjetas?

Nosotros tomamos todas las previsiones como fabricantes para que el fraude no suceda en nuestras plantas, ni en nuestros centros de personalización para proveer tarjetas a la banca y sectores comerciales de manera segura. Tenemos más de 22 años en este negocio en el que hemos avanzado de manera exitosa.

5º ¿Qué sistemas de seguridad ofrecen los productos de Inteligensa?

Los sistemas de seguridad con las tarjetas y tokensdeautenticación siguen los parámetros definidos por la plataforma abierta OATH. Esta tecnología permite tener sistemas integrales de seguridad con metodología deencriptamientoseguro, certificada internacionalmente, de fácil portabilidad y diseño, sea tipo token de clones multivariablesy/o tarjetas DisplayCard con diseño ergonométrico.

6º ¿Qué objetivos os habéis marcado para este primer año en Europa, y en España en particular?

Queremos pasar a ser proveedores de la banca europea, sobre todo de la banca española. Queremos posicionarnos en el mercado de tarjetas inteligentes y de tarjetas de autenticación. Queremos abordar las tarjetas bancarias, de pago y las tarjetas de micropago para el sector transporte y al mismo tiempo, tarjetas y tokens de autenticación para transacciones por internet.

7º Si quiere añadir algo más.

Somos una multinacional que ha venido creciendo en América Latina de manera exitosa, hemos pasado a ser el 8° fabricante más grande del mundo de tarjetas Visa y MasterCard, y el 4° fabricante para tarjetas Maestro.Lo hemos logrado mediante productos de altísima calidad y porque contamos con talentos brillantes y sumamente comprometidos con el Grupo Inteligensa. Queremos compartir nuestros éxitos y nuestra cultura sobre estos productos con el mercado español.Actualmente somos una alternativa competitiva en nuestro sector.

 

 

 

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies