27 ene 2012

Navegar de forma segura y sin filtrado de contenido

Muchas veces estamos trabajando en oficinas de un cliente y nos topamos con la molestia de que tienen filtrado de contenido y no nos permite navegar en las páginas que necesitamos, incluido nuestro correo web.


Esto no sólo nos puede frustrar o molestar a la hora de trabajar, sino que nos plantea dudas sobre que tan seguros son nuestros datos al estar siendo monitoreados por la empresa. Demás está decir que muchas veces se traduce en tener que conectar nuestra preciada tarjeta BAM o celular con 3G/4G para poder navegar de una forma cómoda.

También nos ha pasado que vamos a sitios como Starbucks, Sanborns, VIPs, etc. para conectarnos, exponiendo nuestra conexión a quienes estén conectados en la red.

Aún recuerdo de los tiempos en que Internet no era tan popular que los principales hackers del país (actuales consultores en seguridad) se podían encontrar en los cyber-cafés. No creo que eso haya cambiado mucho, dado que es una excelente forma de conseguir conexiones "anónimas", especialmente en el café de la sirenita, donde todos llevan equipos móviles y hablan de negocios a la vista de todos (y escuchan).


Ante estos retos del día a día mi paranoia me llevó a armar un pequeño mecanismo que desde hace unos años me ha evitado dolores de cabeza: "Proxy usando Tunnel de SSH"



Lo que suena un poco complicado para algunos y conocido para otros se puede configurar en un rato y sin inventar el agua tibia.

Manos a la obra

Que necesitamos:

1) Internet en la casa u oficina y que tenga una IP pública (puede ser dinámica, no necesita ser IP fija)
2) Una computadora, servidor o vieja laptop que tengamos tirada en un rincón y que podamos dejar encendida cuando salgamos de casa.
3) Windows, Linux o Unix instalado en el Servidor/PC/Laptop
4) OpenSSH: Ok, quienes tenga Unix o Linux lo tienen por default y sólo necesitan configurarlo correctamente para evitar intrusos. En el caso de Windows les recomiendo el OpenSSH que se puede descargar de http://bit.ly/Azu4E8

Que debemos hacer en nuestro "Servidor"

1)  En el "Servidor" dejar configurado el OpenSSH, evitando que se puedan firmar como root, administrador o administrator, para evitar que nos hackeen el equipo facilmente.
2) Si tenemos Windows podemos instalarlo usando la siguiente guía http://bit.ly/yV9huA
3) Vamos a la página http://www.no-ip.com y creamos una cuenta gratuita y un nombre de host (en Hosts/Redirections) en alguno de los dominios gratuitos que nos ofrecen. Hay un ejemplo de como hacerlo en :
http://orlandohc-rcht.blogspot.com/2011/09/how-to-servidor-web-casero-2wire.html

4) En el router de nuestro proveedor de Internet debemos configurar un "forward" del puerto de SSH hacia nuestro "Servidor", para abrir el puerto a Internet. Podemos hacerlo desde las reglas del Firewall que traen los routers ADSL sin mucha dificultad. Aquí pueden encontrar una guía para un modem de Infinitum: http://bit.ly/wmOEOG

Que debemos hacer en nuestra Notebook/Laptop

En el caso de nuestra notebook o laptop la cosa está bastante simple:
1) Les recomiendo instalar el navegador Opera, dado que soporta Proxy Socks 5 y puede activarse/desactivarse el firewall facilmente presionando F12.
2) Descargamos el PuTTy COMPLETO con el Plink.exe, que permite ejecutar desde línea de comandos. Mi recomendación es copiar/instalar los archivos en c:\PuTTY
3) Creamos un archivo de texto proxy.bat dentro de c:\PuTTY con el siguiente comando:
plink -C usuario@<nombre_de_servidor> -D 8080
4) Creamos un acceso directo a nuestro escritorio para ese archivo, a fin de que sea cómodo de ejecutar
5) En el Opera configuramos el proxy:

Como Funciona?


Cuando estemos fuera de casa simplemente nos conectaremos a la red donde estemos y ejecutaremos el programa que dejamos en el escritorio. Nos abrirá una ventana y pedirá una clave de usuario (la que indicamos en el servicio de SSH) que pondremos para conectarnos a nuestros servidor y ya podremos minimizar la ventana.

Abriremos Opera y podremos navegar de forma segura, así de sencillo. Todo el tráfico viajará hasta nuestra casa u oficina y navegaremos desde ahí, sin mayor dificultad.

NOTA:Si queremos usar Opera sin emplear el Proxy podemos presionar F12 y desmarcar la casilla de Proxy.

11 ene 2012

Re-escribir o no re-escribir, esa es la cuestión - Modernización de aplicaciones y pantallas

A menudo nos topamos con problemas que nos hacen pensar en que debemos tomar entre las manos nuestro trabajo, hacer una bola y aventarlo al cesto de la basura.

Muchas de nuestras aplicaciones (o las de nuestros clientes) tienen años, y por lo general han sido modificadas por decenas y hasta cientos de programadores a lo largo de su ciclo de vida, sufriendo extrañas mutaciones, agregando interfaces crípticas o que no cumplen con los estándares de seguridad o de funcionalidad, con módulos desarrollados en diversos lenguajes de programación e interactuando entre distintos equipos de múltiples marcas y tecnologías.

Podemos pensar que esto es propio de las empresas que desarrollan sus propios sistemas, pero no es del todo cierto. Existen productos que han sido tan modificados que ni su propio creador podría reconocerlo.

Como muestra:

* Bancos y aseguradoras: Cuentan con aplicaciones de hasta 30 años corriendo en entornos monolíticos (mainframes, mini-computadoras, sistemas propietarios). Necesitan estrictos sistemas de seguridad por reglamentos del sector y las corporaciones que los administran.
* Empresas de distribución de mercancía: Cuentan con sistemas de hasta 10 años, por lo general son desarrollos internos, pero también existen sistemas comerciales que han sido modificados de forma radical.
* Industria: Suelen contar con sistemas bastante antiguos, de hasta 15 o 20 años, y dependiendo de su dependencia de estos la capacidad de inversión.
* Gobierno y empresas de servicio: Sus aplicaciones vienen de gestiones anteriores. Por lo general tienen reglas de negocio muy particulares y eso hace que se vuelvan enormes rompecabezas. Hay sistemas realmente antiguos corriendo en estas empresas.

Cada giro de negocio tiene una problemática particular, pero lo que es común a todos es que los tiempos cambian, las necesidades avanzan, y muchas veces necesitamos que nuestras aplicaciones hagan algo para lo cual no fueron pensadas: conectarse mediante Internet usando tecnologías como WebServices, funcionar desde una tablet, poder funcionar desde "la nube" o simplemente funcionar en web.

Cuando nos enfrentamos a esto nos invaden palabras como: Middleware, Web-Enable, Application Modernization, ESB, Message Queues, Screen Scrapping, Rehosting, o simplemente pensamos en un reemplazo de las aplicaciones, siempre que sea posible.

Pero no existe una forma de transición entre un ambiente y otro?

Los números dicen que muchas veces es más económico comprar un sistema nuevo que reparar uno existente. Pero la realidad dice que eso es en costos de adquisición, nuestros negocios no siempre están preparados para soportar un cambio tan radical.

Si pensamos en hacer convivir lo antiguo con lo nuevo existen alternativas:

Normalmente el middleware permite interconectar nuestro sistema "legacy" con nuevos módulos, pero hay que tener cuidado porque el middleware se puede convertir en un sistema por si mismo, de acuerdo al tamaño de la infraestructura.

Desde un punto de web-enable y application modernization podemos encontrar soluciones que pueden publicar sistemas de pantallas de texto como páginas web. Claro, no podemos considerar esto como una  solución definitiva, dado que conforme los usuarios van usando las aplicaciones en versión web van solicitando mejoras y modificaciones que requieren soluciones diseñadas especialmente para este ambiente, pero puede ser un primer paso. Ejemplos: Webfacing, IBM Rational HATS, Attachmate.

Algunas empresas tienen diseños en sus aplicaciones que permiten crear mecanismos de múltiples capas para separar las reglas de negocio de la capa de presentación. Un ejemplo de esto son aplicaciones de modo "batch" o stored procedures en un lenguaje nativo y un desarrollo visual en .NET o Java para la interacción con los usuarios.

Lo importante es comprender que los negocios ya necesitan de este tipo de cambios y mejoras en sus aplicaciones, que los directores y gerentes necesitan acceder a las aplicaciones todo el tiempo, y sin importar el mecanismo, sea un iPad o un celular.


Seguridad en las empresas de hoy

Cuando nos mencionan el tema de seguridad viene a nuestras mentes las imágenes de candados, firewall, policías, cajas fuertes, etc. Obviamente que los vendedores de soluciones de seguridad han acudido a estas imágenes tan simples para hablarnos de sus productos.
Pero la seguridad en nuestras áreas de TI es mucho más compleja y requiere de nuestra comprensión para poder tomar acción.

Nuestras infraestructuras de cómputo actuales se han vuelto realmente muy complejas y eso impacta en la administración de su seguridad. Si imaginamos a nuestra infraestructura como una casa, podemos decir que últimamente hemos abierto muchas puertas, a las cuales debimos poner complejos sistemas de alarmas y cerraduras para evitar que entren intrusos.

Las grandes consultoras señalan que la inversión en seguridad aumentará en el orden del 25% anual durante los próximos 3 años. Los empleos en el sector de seguridad han aumentado y existe una gran demanda de puestos gerenciales en estas áreas.

Para permitir que nuestras empresas puedan contar con páginas web, VPNs, intercambio de datos con otras empresas, etc, hubo que abrir esas "puertas" y agregar firewalls para asegurar el perímetro.
Si la cantidad de accesos y firewalls es importante generaremos una gran cantidad de logs, para lo cual necesitaremos un IPS con correlación de eventos, para que analice comportamientos sospechosos y descarte eventos inocuos.

La mayoría de las consultoras internacionales señalan que los ataques suelen venir desde dentro (estiman que en un 60% a 70% de los casos), por lo que adquirimos productos de monitoreo de aplicaciones (BPM y BAM) para asegurar los flujos de trabajo y productos de monitoreo y auditoría de bases de datos (DAM) para evitar que alguien altere la información en su beneficio.

Esto plantea 3 grandes dilemas:

1) Que sucede si se comete un fraude usando el sistema de forma adecuada, dentro de los horarios establecidos de trabajo, en equipos que tienen permitido hacerlo, pero valiéndose de errores en las políticas o en las aplicaciones?

2) Que sucede cuando el volumen de información es tan grande que un humano no puede analizarlo?

3) Que sucede cuando la falla de seguridad es la suma de eventos en diferentes niveles. Ejemplo: Si una persona se conecta desde una determinada terminal con un usuario específico, dentro de un horario permitido y ejecuta una acción.

He hecho pruebas simples en diversas aplicaciones publicadas en la web y puedo decirles que es alarmante el que se puedan ver datos de clientes sin tener que esforzarse demasiado.
Los buscadores como Google son también herramientas de búsqueda de errores en aplicaciones y de huecos de seguridad en nuestra infraestructura.

Recordemos que normalmente la seguridad se basa en el desconocimiento, desconocimiento de claves, desconocimiento de mecanismos, desconocimiento de direcciones, etc.

Pero este desconocimiento cuenta para gente externa a la organización, o no? Que sucede en la época del outsourcing y el desarrollo en empresas en otros continentes? Que ocurre con los ex-empleados? Y las aplicaciones que tenemos corriendo en  esquema de cloud computing?
Las preguntas son muchas y los desafíos aumentan cada año.

Pero no todo es malas noticias, si hay forma de resolver estos problemas, y se llama correlación de eventos y control de accesos. Existen productos que permiten consolidar los logs de los servidores, firewalls, herramientas de seguridad, etc. y rearmar la historia de lo ocurrido.
Podemos configurar estos productos para que nos envíen alertas, generen reportes y respalden la información para futuras consultas.
También existen productos que permiten revisar y auditar el código de los programas para ayudarnos a encontrar posibles fallas de seguridad.

La clave en todo esto es nuestro conocimento del negocio, nuestro enfoque en la seguridad, y el ser realmente concientes del riesgo que significa el no estar preparados.

27 sept 2011

Benchmarks, performance, peras y manzanas

Es interesante cómo los fabricantes de hardware gustan de comparar sus juguetes caros e intentar demostrar que son mejores que la competencia de formas muchas veces ridículas.
Es como cuando eramos niños y presumíamos de los autos que tenían nuestros padres para darle envidia a nuestro compañero de primaria. Que importaba si era un auto para pasear a la familia, si lo importante era que podía acelerar a 200 km/h?

Así como en los autos existen los caballos de fuerza o bhp, relación peso-potencia, el torque, la maniobrabilidad, etc., en el mundo de las TI contamos con valores como los SPECs, TPC o tpmc, 9s de disponibilidad, etc.

Pero la tecnología, al igual que los autos, suele tener un propósito específico. No es lo mismo tener que procesar tarjetas de crédito para millones de clientes, que procesar imágenes satelitales para análisis climatológico, o guardar la información de nuestro correo.

La gente de Oracle aparentemente olvida eso y nos trae anuncios fantásticos como este:

Es información pública que se puede obtener de la página de Oracle.

A primera vista suena fantástico! Una relación de 5.7 a 1 en precio, y me van a dar más Cores (volviendo a la analogía de autos: más CC), más performance de I/O (no aclaran de que configuración), igual capacidad y redundancia.

Ahora, que no está diciendo este anuncio?

1) El Exadata es un equipo que sólo procesa base de datos, no procesa aplicaciones como WebSphere, WebLogic, un WebServer o Business Intelligence, sólo la base de datos Oracle.
2) No hay un detalle de la configuración. En otro chart he visto una comparación similar y es el mismo equipo de IBM comparado con una configuración de 8.8 millones, versus este equipo de 3.3 mdd
3) Que los cores de los equipos Exadata son de procesadores Intel vs los procesadores Power7 del 795
4) El nivel de disponibilidad de la solución. Que diga que están en HA no es suficiente, no todas las soluciones de HA funcionan igual.
5) More I/O Performance: La velocidad de entrada salida es algo sumamente relativo en este tipo de ambientes, donde comparamos un dispositivo de IBM con discos externos, versus un equipo Exadata con discos "internos" o integrados en la solución. El I/O puede referirse al rendimiento que entregan los discos, a la velocidad de las comunicaciones, a la velocidad de la memoria...
6) Que necesitaremos más equipos en el ambiente de Oracle para poder correr cualquier tipo de solución, pues no hay servidores para procesar.
7) El costo del software y su mantenimiento.

Siempre he considerado que se debe pensar para qué, o estaríamos usando todos PCs para procesar información delicada. Se imaginan un banco procesando con un cluster de servidores Intel armados de forma casera para procesar nuestras transacciones?

Es cierto que con la tecnología actual, en equipo de cómputo empresarial se hace cada día más difícil el comparar peras con peras, pero evidentemente hay un límite, y siempre existirá una forma de comparar equipos de similares funcionalidades, el punto es que los fabricantes quieran llevarnos a un escenario justo.

19 sept 2011

Virtualización de Almacenamiento (Storage Virtualization)

Esta vez vamos a hablar de la virtualización de almacenamiento o "Storage Virtualization".

Hitachi Data System: Réplica entre diferentes tecnologías usando virtualización


Normalmente cuando hacemos referencia a la palabra "Storage" imaginamos automáticamente un disco o sistema de discos internos o externos. Lo cierto es que almacenamiento de datos comprende desde equipos con disco, cintas, dispositivos WORM (alguien los seguirá usando?), CDs/DVDs, dispositivos de conectividad de SAN (Storage Area Network) y software de administración y operación.

Tratando de ir en orden, existen diferente tipos de almacenamiento y podemos decir que casi todos pueden ser virtualizados, aunque con diferentes mecanismos.

Virtual Tape
Imaginemos una unidad de cinta empresarial de IBM

IBM TS3500 "Anaconda"

Arriba estamos viendo un TS3500 de IBM, también conocido como "Anaconda" pues se pueden concatenar varios cajones (hasta 16) para formar un único dispositivo robot de administración de cintas.
Es un equipo que permite ser conectado a un MainFrame o para consolidar los respaldos de múltiples servidores.
Imaginemos un precio de varios cientos de miles de dólares, quizá de hasta millones de dólares invertidos en esa caja.

Ahora apliquemos el sentido común: Cuantas horas al día podrá estar operando ese equipo? Aunque resulte un poco obvio no lo es tanto: 8 a 12 horas por día. Por qué?  Debido a que los respaldos se hacen en ventanas de tiempo en que los equipos no están operando (no siempre es así, pero la mayoría de las veces), lo cual suele ser fuera de los horarios de oficina.
Entonces parage

Como era de esperarse, existen dispositivos de Disco Virtual o Virtual Storage Devices. En esta categoría también caen algunos productos de virtualización de SAN, dada la funcionalidad que proveen.

IBM SAN Volume Controller


Existen diferentes dispositivos que proveen este tipo con funcionalidades diferentes y precios mconStor o Starwind.
También existen soluciones de respaldo, como CommVault, que incluyen características de VTL en el mismo software.


Virtual Disk Storage

Como era de esperarse, existen dispositivos de Disco Virtual o Virtual Storage Devices. En esta categoría también caen algunos productos de virtualización de SAN, dada la funcionalidad que proveen.

IBM SAN Volume Controller


Existen diferentes dispositivos que proveen este tipo con funcionalidades diferentes y precios muy variados, pero en esencia todos proveen ciertas características comunes:

1) Migración de información entre discos internos o externos sin interrumpir la operación
2) Jerarquización y migración de información de forma automática de acuerdo a su rendimiento o uso, a fin de usar el TIER de almacenamiento con el costo adecuado para el dato correspondiente.
3) Sobre-asignación (over-allocation) de espacio en disco: Permite asignar más espacio del que físicamente tenemos empleando técnicas de "Aprovisionamiento Delgado" (Thin Provisioning). De esta forma podemos hacer creer a nuestros servidores que contamos con más espacio del que físicamente tenemos, mientras el proveedor va surtiendo las partes, y sólo emplearemos el espacio que ocupamos en lugar del espacio asignado.
4) Consolidación de drivers: El contar con un único dispositivo que se comunique con el servidor, a pesar de ser más de uno el que brinde los discos, permite emplear menos drivers y simplificar la administración.
5) Consola de administración centralizada para todos los discos virtualizados
6)Unificación de réplicas de datos: A pesar de ser un tema en sí el de las réplicas de datos, podemos decir que por cuestiones de compatibilidad es prácticamente imposible replicar información entre diferentes equipos de diferentes fabricantes. La virtualización nos permite ver nuestro almacenamiento como una única piscina de discos, pudiendo mover información entre ellos o bien replicar remotamente esa información de manera transparente.

Podemos clasificarlos, a grandes rasgos, de la siguiente manera:

a) Equipos como el VSP de Hitachi Data Systems, NetApp o el IBM Storwize V7000 consisten de dispositivos de disco y que cuentan con funcionalidades de virtualización como un extra para publicar los discos de otros dispositivos como si fueran propios.
Las principales ventajas de estos equipos son el poder agregar mayor capacidad de disco de acuerdo a nuestra conveniencia y en el equipo que nosotros querramos.

b) Equipos de sólo virtualización: Gateways de NetApp, IBM San Volume Controller. Son equipos dedicados, basados en software, con funciones de virtualización. Por ser equipos dedicados muchas veces dan un muy buen desempeño. El IBM SVC actualmente ostenta el record de rendimiento en dispositivos de almacenamiento.

c) Soluciones de Software: Starwind IP SAN, FalconStor NSS, Compellent DataCore, etc. Suelen ser soluciones más económicas y por lo general ofrecen convertir a SAN sobre IP empleando el protocolo iSCSI, para evitar el uso de tarjetas especiales. Algunos son sistemas operativos completos, por lo general basados en Linux, o bien soluciones que corren sobre Servidores Windows.

d) Basados en el sistema operativo. Algunos sistemas operativos como el IBM i (anteriormente llamado OS/400) o Solaris cuentan con características de virtualización de discos y/o de cintas, empleando mecanismos propios del entorno.

Virtualización de respaldos

En realidad más que una solución de hardware o software suelen ser soluciones híbridas, donde el dominante es el servicio. También son llamadas soluciones de Cloud Híbrida de Respaldos.
Un ejemplo de ello es el equipo Secure2Disk de SUNGuard, que emplea un dispositivo para guardar los respaldos del equipo y luego subirlos usando un enlace seguro por Internet a un servidor "en la nube" brindado por el proveedor. La principal ventaja de estas soluciones es el no tener que adquirir equipos costosos, simplemente pagando una renta mensual por el espacio empleado.


Conclusiones

De la misma forma en que muchas veces cuando tenemos un martillo todo nos parece un clavo, si una "solución de virtualización" no está a la altura de nuestras necesidades, en realidad no es una solución.

Se de gente que  adquiere soluciones de virtualización de almacenamiento pensando que podrá reutilizar sus antiguos equipos de disco e intentar darles nueva vida. La realidad es que no siempre conviene mantener un costoso equipo con discos que tienen años y cuyo mantenimiento puede ser más elevado que comprar un dispositivo nuevo con funcionalidad superior.

El principal objetivo de toda solución de virtualización es reducir costos, sean costos directos o indirectos, de operación o de adquisición; o agregar nuevas funcionalidades. Al momento de diseñar nuestra solución deberemos tener esto muy en cuenta, o no agregará valor a nuestro negocio.

11 ago 2011

Que son la Virtualización, el Cloud Computing y para qué sirven?

Hoy quiero tocar un par de temas que para algunos pueden sonar trillados, para otros quizá novedosos y para unos terceros… tal vez no estén de acuerdo conmigo.
Virtualización
Virtualización en una PC

Qué es la virtualización?
La virtualización, desde un punto de vista de IT, es un recurso tecnológico que permite simular el contar con múltiples equipos cuando en realidad tenemos un equipo (o grupo de equipos) que comparte(n) recursos con diferentes sistemas operativos.

La idea original de la virtualización se originó en los años ’60, cuando los equipos de cómputo eran grandes mainframes con costos sumamente altos. Para poder justificar el costo elevado de los equipos era necesario poder emplear al máximo los recursos. Con esta idea en mente aparecen los primeros equipos particionados y años más tarde virtualizados, donde se podían correr múltiples sistemas operativos dentro de un mismo equipo.

Esas características fueron poco a poco permeando hasta llegar a los equipos basados en Unix, lo cual permitió correr múltiples instancias del sistema operativo en un mismo equipo. Fueron años más tarde que aparecieron productos que permitían virtualizar equipos basados en tecnología x86, al punto que podemos correr Windows dentro de una laptop de Apple, intercambiando archivos entre la máquina física y la maquina virtual de forma transparente.

En los últimos años se han incorporado diferentes recursos técnicos en los procesadores para permitir una mayor integración con los productos de virtualización. Hoy ya es posible mover una máquina virtual desde un equipo a otro sin interrumpir la operación, y de forma transparente para los usuarios.
Pero una de las novedades más grandes vienen con el apoyo de las nuevas tecnologías aportadas por Intel y que permiten escalar de forma casi lineal, así como la incorporación de funciones sofisticadas dentro del núcleo de Linux. Todo esto combinado con nuevas estrategias de mercado como el cloud computing, lo cual ha generado el desarrollo de nuevos productos más flexibles.


Pero qué es el Cloud Computing?
La idea de una nube la hemos visto desde hace años cuando nos quieren representar en unos bellos slides la idea de Internet y la relatividad de las distancias y ubicaciones. El cloud computing hace uso de esa idea que nos han forjado durante años, pero aplicado a la infraestructura de cómputo. Un término muy usado es Infraestructura como Servicio o IaaS (por sus siglas en inglés).

El Cloud Computing consiste en una serie de tecnologías combinadas que convierten a la infraestructura en una caja negra, y nos permite rentar equipos, en el caso de una “nube pública” (aquella que es ofrecida a través de Internet) sin tener que movernos de nuestros escritorios.

Como ejemplo, si queremos contar por 15 días con un servidor que corra Linux y DB2 para fines de desarrollo, podemos rentarlo fácilmente desde el portal  llamado IBM SmartCloud Enterprise. Dependiendo del recurso que necesitemos podemos rentar desde 1 mes, 1 día o 1 hora de un servidor con todo lo necesario para correr nuestras aplicaciones. Obviamente, dependerá de que estas no requieran del acceso físico a los equipos, o será prácticamente imposible de usar.


También existe otro concepto muy interesante llamado Cloud Privada. Con una Cloud Privada podemos crear un pool de recursos en nuestro Centro de Datos y brindar servicios de forma automatizada. Esto es de gran utilidad en empresas de gran tamaño, donde el costo de las licencias y el equipamiento se ve opacado por el esfuerzo necesario y la inversión requerida para operarlo.

Imaginemos el siguiente caso: Un programador le lleva una interesante idea de proyecto a su gerente del área para contar con un sistema web que de seguimiento a camiones mediante el uso de celulares. Este debe elevar el proyecto a su director, serán necesarias múltiples juntas para tomar una decisión, y una vez decidido pasarán el proyecto a compras.
En compras llamarán a su pool de proveedores para pedir cotizaciones, se comenzará a negociar el mejor precio, se colocará la orden y se entregará en un promedio de 6 semanas.
Una vez entregado, el equipo debe ser instalado, configurado, y recién será posible hacer uso de él.
Estamos hablando de un proceso que en su totalidad puede llevar de 3 a 6 meses desde que se solicita hacer la prueba de concepto hasta que se cuenta con el equipo listo para su uso.

En una nube pública o privada podemos reducir ese tiempo a unas cuantas horas, a lo sumo un par de días, puesto que los recursos ya existen y hay software especializado que se encarga de "aprovisionar" los recursos, instalar el sistema operativo con el software necesario, configurar la red y crear los usuarios para conectarse.

En estos momentos estamos viviendo una realidad donde el volumen de información y el tamaño de las infraestructuras comienzan a afectar el poder contar con un servicio de calidad. El haber pasado de grandes equipos que concentraban el poder de cómputo a múltiples equipos de diferentes proveedores con distintas tecnologías nos hacen ver como atrapados en una selva de servidores, software, tecnologías y redes cada vez más compleja, y de la cual sabemos que no hay salida, sino que debemos controlar para no perecer en la operación diaria.

Lo mismo ocurre con la virtualización. Las soluciones que permiten virtualizar no siempre son económicas. Muchas de ellas tienen precios súmamente elevados, pero el beneficio muchas veces lo justifica.
Veamos como ejemplo la virtualización de escritorios. Una serie de equipos corriendo un software con un costo bastante elevado para reemplazar a PCs que han sido amortizadas en el tiempo y que sólo reducirán el costo de administración, pero no de adquisición.

Entonces, conviene o no virtualizar?
Cual es mi brake-even que me permitirá comenzar a ahorrar costos?

Realmente la virtualización me aporta algo?
No existe una respuesta única a eso. La pregunta es: necesitamos reducir costos de operación o de adquisición?

Como regla del pulgar podríamos casi afirmar que:
1) si contamos con más de 30 o 40 servidores la virtualización es una excelente alternativa para reducir costos de operación, mejorar los tiempos de entrega de proyectos, consolidar los respaldos y reducir consumo eléctrico
2) contando con más de 100 servidores podemos casi afirmar que la virtualización es una necesidad y una cloud privada para crear un portal de auto-gestión de recursos es una excelente idea
3) con más de 200 servidores una cloud privada es como oro sólido
4) Si pensamos reducir costos de escritorios usando escritorios virtuales (VDI) , no pensemos en un escenario de menos de 200 o 300 puestos de trabajo, o no habrá una amortización suficiente del costo de arranque


Diego E. KESSELMAN

Cómo conectarme a un servidor remoto en una red protegida - Versión actualizada

En un artículo anterior describí cómo conectarse a un equipo remoto en una red protegida http://diego-k.blogspot.mx/2014/12/como-conectarme...