Archivo del Autor: Omar Morales

La debacle de la app de la elección demócrata en Iowa

Por Omar Morales

El 3 de febrero de 2020 inició el proceso para la designación del cantidato demócrata a la presidencia de USA con los caucuses de Iowa; los caucuses, a diferencia de los procesos de elección por medio de boletas, se llevan a cabo contando la cantidad de personas que se ponen de pie en una sección de un edificio, plaza o espacio público designada para cada candidato, es un proceso sencillo, aunque laborioso y en el caso de Iowa se debe llevar el conteo en 1,679 distritos y luego se debe consolidar la información para su registro; como en todas las elecciones en USA, el conteo no está enfocado en el voto popular, sino en la cantidad de representantes que serán designados para cada candidato, por aquello del colegio electoral. Con la finalidad de agilizar el proceso de recolección y conteo de datos el Partido Demócrata de Iowa decidió utilizar una aplicación de celular, lo cual es una gran idea que tuvo una pésima ejecución.

La lista de cosas que salieron mal es larga, pero un resumen de lo que el New York Times considera como lo más importante es:

  1. La aplicación había sido creada recientemente y no se realizaron las pruebas suficientes.
  2. Las personas encargadas de operar la aplicación no estaban familiarizadas con ella.
  3. La aplicación no funcionó en todos los equipos.
  4. Enviar los resultados de los conteos fue más complicado de lo esperado.
  5. La aplicación no transmitió la información correctamente.
  6. Como mecanismo de envío de información de respaldo se designaron líneas telefónicas por medio de las cuales los encargados del conteo se comunicarían para enviar los resultados, estas líneas se saturaron.
  7. Los conteos debieron realizarse manualmente.

Como si las fallas técnicas no fueran suficiente, salió a la luz que la empresa encargada de la creación de la aplicación, Shadow Inc (el nombre no ayuda a la causa) era parte del portafolio de inversión de Acronym, una compañía que cuenta en su consejo con personas como David Plouffe, coordinador de campaña de Barack Obama en 2008; además de que había llevado a cabo servicios para  las campañas de Pete Buttigieg y Joe Biden, ambos candidatos de la actual contienda, esta información ha hecho que el problema tenga tintes políticos.

Desde el punto de vista técnico el despliegue de la aplicación fue un desastre,  su instalación no se llevaba a cabo desde las tiendas oficiales de Android o de iOS, se realizaba por medio de TestFairy, una aplicación que permite probar otras aplicaciones sin necesidad de instalarlas, todo porque no se pudieron cumplir los procesos de publicación estipulados por las tiendas, principalmente por falta de tiempo para llevar a cabo su desarrollo, algo que casi nunca sucede en proyectos de tecnología. En cuanto a la calidad del código de la misma, en palabras de Kasra Rahjerdi analista de Motherboad, la sección especializada en tecnología de Vice: «la aplicación fue creada por alguien que programa basándose en tutoriales».

¿Existió la posibilidad de evitar esta catástrofe?  La repuesta, tristemente es si. El 14 de enero NPR llevó a cabo un reportaje acerca de la app que incluía una entrevista con Troy Price, el dirigente del partido demócrata en Iowa, en la que buscaron obtener más información acerca de la app, así como de los mecanismos de respaldo que tenían por si esta fallaba, aquí un resumen de lo que Troy Price comentó al respecto:

  1. No se proporcionaría información acerca de la app, la empresa que la construyó o las medidas de seguridad implementadas en la misma para que esta información no fuera utilizada en su contra.
  2. En la traducción más textual que puedo realizar de sus palabras: «Si hay algún problema tendremos disponible un proceso de respaldo y un proceso de respaldo del proceso de respaldo, y un proceso de respaldo del proceso de respaldo del proceso de respaldo».

Claramente las estrategias planteadas no dieron los resultados esperados. En el mismo reportaje, Doug Jones un profesor de Ciencias de la Computación de la Universidad de Iowa sentenció con esta frase la situación de opacidad en el manejo de la app: «La idea de seguridad a partir de la oscuridad casi siempre es un error». En este momento la app está disponible en el sitio de Vice para que sea descargada y analizada por quien quiera, como debió hacerse antes de usarla en los caucases de Iowa.

 

Colaboración entre Cisco y el Gobierno de la Ciudad de México

Por Omar Morales

El 22 de octubre de 2019, el gobierno de la Ciudad de México y Cisco firmaron un convenio de colaboración a través de la Agencia Digital de Innovación Pública (ADIP), en el evento de la firma estuvieron presentes la Jefa de Gobierno Claudia Sheinbaum y el CEO de Cisco, Chuck Robbins; el video del evento está disponible en la página de Facebook del Gobierno de la Ciudad de México y las diapositivas de la presentación en el sitio de la ADIP. El convenio tiene tres objetivos principales: acelerar la digitalización de la ciudad bajo ambientes de ciberseguridad, utilizar el programa Aceleración de la Digitalización de los Países (Country Digitization Acceleration Program, CDA) para instrumentar nuevas aplicaciones y promover la inclusión digital de la población. Ahora, la parte interesante de este convenio son las acciones definidas en la presentación y en el anuncio del convenio en el sitio de la ADIP. De las cinco acciones definidas, tres están enfocadas en inclusión digital, innovación, creatividad digital, eventos y sesiones para el fomento de ciberseguridad, creación de habilidades técnicas y de alfabetización digital, así como el diseño de estrategias para impulsar la inteligencia analítica bidireccional; en términos generales no son acciones relacionadas con la implementación de alguna tecnología per se, sin embargo las dos restantes si lo están, las incluyo textualmente del anuncio:

  • Creación de un motor analítico de Big Data que permita al personal del Gobierno de la Ciudad de México integrar, correlacionar, fusionar y procesar grandes volúmenes de datos para su análisis y así apoyar en el desarrollo de estrategias de conectividad e inclusión social
  • Proporcionar herramientas tecnológicas de inteligencia analítica bidireccional para el análisis, aplicación y aprovechamiento estratégico de la información y/o datos para su posterior aplicación en temas de interés prioritario para la Administración Pública y los habitantes de la Ciudad de México.

Estas dos acciones pueden sonar ambiciosas en su alcance, aunque, al no presentar un objetivo específico o una definición exacta de los «grandes volúmenes de datos» e información que se analizará, queda en el aire lo que se puede esperar. En cuanto a la plataforma que soportará estas dos acciones sería interesante saber qué tipo de infraestructura destinará Cisco y por cuánto tiempo estará disponible, y la tecnología que se utilizará «para comunicarse directamente con la ciudadanía mediante sus dispositivos móviles, sin la necesidad de que instalen alguna aplicación o se registren en una plataforma» (texto de las diapositivas).

Hoy en día la aplicación Alameda Central de la Ciudad de México (disponible en Android y iOS) «centraliza el acceso a las aplicaciones existentes de las distintas entidades gubernamentales de la administración pública de la Ciudad. Su objetivo es facilitar y mejorar la vida de los ciudadanos poniendo a su disposición información que les sea de interés» de acuerdo con la descripción en ambas tiendas, ya es pues un medio de comunicación con la ciudadanía, además de que la descripción de la funcionalidad de la plataforma en la publicación del convenio incluye «notificaciones de emergencia, divulgación turística, trámites, servicios, denuncias, tiempos de arribo, fallas y demoras en el transporte público, calidad del servicio y notificaciones personalizadas de clima», casualmente coincide con la funcionalidad de la aplicación en las tiendas de Android y Apple. En el video de la firma del convenio se presentó una demostración de la forma en que funcionaría esta plataforma desde el punto de vista del ciudadano y es muy parecido a lo que hoy en día ofrece Alameda Central, un par de ejemplos en las imágenes:

Tal vez se trate de un error en la redacción del anuncio o de las diapositivas, o tal vez la estrategia sea reemplazar a la aplicación actual, lo cual sería raro, por decir lo menos, ya que la aplicación fue presentada apenas el 24 de marzo de esta año.

En cuanto a lo que Cisco ofrece en este convenio, el Country Digitalization Acceleration (CDA) program inició en 2018 y está presente en dieciseis países, incluyendo a Francia, Israel, Alemania, los Emiratos Árabes Unidos y la India, entre otros. El programa está enfocado en seis temas principales: acceso nacional a internet, ciudades inteligentes, gobierno central, ciberseguridad, habilidades y educación e inclusión digital y financiera. En la India, Cisco tiene casos de éxito de ciudades inteligentes en Vijayawada, GIFT y Hyderabad, en implementación de estacionamiento inteligente, quioscos ciudadanos, análisis de tráfico, Wi-Fi público y sensores inteligentes del medio ambiente. IDC tiene un caso de estudio específico de la ciudad de Vijayawada con detalles técnicos muy interesantes, como el control de lugares de estacionamiento de manera inteligente, el monitoreo de transporte público, el control del alumbrado y el acceso a trámites de gobierno vía voz y video en estaciones ubicadas en plena calle; así como de beneficios directos e indirectos, como la percepción de seguridad, agilidad en los trámites y ahorro de energía. Todo esto muy útil, loable y eficiente, y sería increible tener esa tecnología implementada en México, pero depende de la inversión que se haga para implementar estos proyectos.

En palabras de Claudia Sheinbaum, el convenio «es una colaboración honorífica, no representa ningún recurso económico, sino, sencillamente, es un apoyo que CISCO está dando a la Ciudad de México en este esfuerzo de innovación y por su generosidad y apoyo pues es un honor y un enorme agradecimiento» (cita del video de la presentación); el convenio puede ser esto, pero la implementación la tecnología necesaria para hacer de la Ciudad de México una ciudad inteligente no será una obra de generosidad u honor. Esto no quiere decir que no debería llevarse a cabo, al contrario, en una ciudad de más de 8 millones de personas con problemas de seguridad, ambientales, de movilidad y desempleo, este tipo de estrategias son necesarias y convenientes. Solo espero que se aproveche y maximice la inversión que se ha hecho ya en este ámbito, como es el caso de la Alameda Central y que el análisis de los datos e información compilada en este convenio le permita al gobierno de la Ciudad de México deje beneficios en sus habitantes.

Comprensión del Lenguaje Natural para apoyar a historiadores

Por Omar Morales

Interruptus Radio es un gran programa de radio en línea creado por académicos e historiadores de la UNAM, la ENAH y el Instituto Mora que analizan temas sobre Historia y Ciencias Sociales, como el legado de Benito Juárez, la forma en que se vio la revolución cubana en la UNAM, Anarquismo en México y violencia de género en el Estado de México entre otros; además de que continuamente tienen transmisiones en lugares como el mercado de Jamaica o en parques de la zona de Coyoacán. En la emisión del 30 de junio «Archivos, política y acceso a la información» el equipo de historiadores abordó distintos puntos de la Ley General de Archivos que entró en vigencia el 15 de junio de este año; por ejemplo, el enfoque de derechos humanos , el derecho a la verdad y el acceso que en la 4T se le está dando a los archivos actuales.

Dos puntos de este programa me parecieron muy interesantes: el primero fue la experiencia del historiador Carlos Inclán Fuentes con el archivo de la Dirección Federal de Seguridad conformado por 500 cajas, controlado por el CISEN y que se encuentra en resguardo en el Archivo General de la Nación; este archivo está organizado de manera cronológica, la forma en que se realizan las consultas es por medio de un fichero al que solo tiene acceso una persona y por tanto la búsqueda de información es lenta, complicada y restrictiva. El segundo fue cuando el mismo historiador expuso que un proyecto de catalogación de un archivo de 11 cajas sería una labor que tomaría entre un año o dos, porque debe realizarse por personal familiarizado con la información contenida en él.

Después de escuchar ambos puntos y las dificultades a las que se enfrentan los historiadores y personal en general en la consulta de los archivos lo primero que pensé fue: ¿se podría facilitar esta tarea usando alguna herramienta informática? De entrada, como seguramente muchos consultores y especialistas en ECM habrán pensado en voz alta, propondría digitalizar los documentos a formato PDF, aplicarles reconocimiento óptico de caracteres, ponerlos en un repositorio y configurar la búsqueda por contenido; listo, más fácil no se puede. ¿O si? Si vamos a la definición de catalogación disponible en la Wikipedia (a reserva de que es probable que exista una mejor definición de este término desde el punto de vista archivístico) tenemos que es «el proceso de creación de metadatos que representan los recursos de información, tales como libros, grabaciones de sonido, imágenes en movimiento, etc. La catalogación proporciona información como los nombres de los autores, los títulos y las materias que describen los recursos, normalmente a través de la creación de registros bibliográficos.» Tener un motor de búsqueda por contenido en documentos PDF no es una catalogación como tal, y si, se podría configurar en el repositorio una taxonomía para catalogar estos documentos, pero en la mayoría de las ocasiones esta labor termina siendo manual y por tanto requiere de tiempo y recursos.

Una herramienta que existe hoy en día para facilitar esta catalogación (importante: facilitar, no sustituir) es IBM Watson, específicamente el módulo de Natural Language Understanding (Comprensión del Lenguaje Natural); de acuerdo a la documentación del producto, con este módulo se puede «analizar las características semánticas de entradas de texto, incluidas las categorías, los conceptos, la emoción, las entidades, las palabras clave, los metadatos, las relaciones, los roles semánticos y el sentimiento». Con este análisis sería posible generar un catálogo preliminar de los documentos de un archivo para que después sea afinado y mejorado por especialistas. Es posible probar la forma en que funciona este módulo aquí capturando texto o una dirección Web para ver la forma en que se analiza y descompone, un video con información a detalle está disponible en esta liga, aunque el nivel de detalle es muy técnico. IBM Watson Natural Language Understanding se utiliza, por ejemplo, en  LegalMation, en conjunto con los módulos de Inteligencia Artificial, para reducir el tiempo que se requiere en analizar y generar documentos legales así como solicitudes de información relacionadas con demandas.

Si, como muchas personas leíste IBM Watson y pensaste: «eso debe costar mucho dinero», la respuesta es no y si; no, po,rque se puede tener acceso a esta plataforma en línea a través de IBM Cloud y procesar una cantidad interesante de información, en el orden de aproximadamente 50 millones de letras, dependiendo del tipo de análisis que se quiera llevar a cabo. Y sí porque, como en el caso de mucha información perteneciente a entidades como el gobierno o la banca, no puede enviarse a procesar o analizar a una nube cuyos servidores están fuera del país y por tanto se tendría que instalar en sitio  la herramienta con todos los requerimientos de hardware, software, recursos humanos y tiempo que ello significa.

Al uso de IBM Watson existe una opción de código abierto soportada por Apache llamada UIMA (Unstructured Information Management Architecture, Arquitectura para la Administración de Información no estructurada). Con UIMA es posible analizar e interpretar texto para identificar entidades como personas, organizaciones y las relaciones entre ellas por medio de procesamiento del lenguaje natural y aprendizaje automático (machine learning). Y, lo más importante, IBM Watson usa esta arquitectura de manera interna, por lo que se podría tener acceso a mucha de la funcionalidad de este sin limitaciones en su uso. Claro, el uso de esta arquitectura también tiene sus bemoles, de entrada toda la interfaz de usuario tendría que construirse sobre ella, ya que esto no es parte de los módulos principales, además de que se tendría que instalar y configurar en sitio, por lo que regresamos a los requerimientos de hardware, software, recursos humanos y tiempo.

¿Valdría la pena implementar este tipo de tecnología en un archivo histórico? Si catalogar 11 cajas puede llevar hasta dos años y un archivo puede tener de cientos a miles, vale la pena implementar un proyecto de digitalización y catalogación para facilitar su consulta.

¿Cuántas veces se ha filtrado tu información personal? La mía cinco veces

Por Omar Morales

Mucha de la información de este artículo proviene del post «The 773 Million Record «Collection #1» Data Breach» de Troy Hunt, recomiendo su lectura o la de el artículo en español que publicó Hypertextual.

Hay más de 1, 660 millones de combinaciones únicas de correos electrónicos y passwords con acceso a distintas fuentes como LinkedIn, MySpace, LastFm y Tumblr, entre otras, en una colección de 12,000 archivos y más de 87 GB de información. El acceso a mi cuenta de LinkedIn está entre ellos. Bueno, la combinación que usaba hace 5 años, pero no por eso es menos preocupante. Si desean saber si su correo electrónico está en la base de datos pueden usar cualquiera de estas dos ligas:

La primera es provista por el The Hasso Plattner Institute, una universidad alemana:

https://sec.hpi.de/ilc/search

La segunda es una creación del mismo Troy Hunt:

https://haveibeenpwned.com/

Una herramienta más que recomiendo de Troy Hunt es «el verificador de passwords», el cuál permite verificar si ese password que usas en todos los sitios, si, ese que es qawsedrf, 4m3r1c4 o pumascampeon, por no poner los ya conocidos, está en la base de datos; sobra decir que estos que he puesto están ahí.

https://haveibeenpwned.com/Passwords

La recomendación es que usen un administrador de passwords o, al menos prueben sus passwords en la herramienta anterior, háganlo para tener menos noches de insomnio.

Como nota pesimista para cerrar este pequeño artículo, Troy Hunt comenta que además de esta colección de datos conocida como Collection #1, existen al menos 4 colecciones más, y las que faltan.

CoDi, plataforma de Cobro Digital creada como extensión del SPEI de Banco de México: qué espero que haga

Por Omar Morales

En un artículo anterior escribí acerca del anuncio que hizo el Banco de México (Banxico) de CoDi, así como de  la necesidad de que la plataforma sea segura y la comunicación al usuario transparente, en esta ocasión el objetivo es plantear si la existencia de esta es necesaria o no. Empecemos con un poco de contexto acerca del Sistema de Pagos Electrónicos Interbancarios (SPEI) del cual CoDi será una extensión: SPEI inició operaciones en el 2004 sustituyendo al Sistema de Pagos Electrónicos de Uso Ampliado (SPEUA), este último operaba desde marzo de 1995.  Según el Informe anual sobre las infraestructuras de los mercados financieros 2017 publicado en noviembre del 2018, 103 instituciones realizan transacciones en el SPEI, con 407 mil operaciones entre ellos y 474 millones de operaciones entre usuarios finales del sistema, de las cuales el 67.72% son por montos menores a los $8,000.00; el total de las operaciones entre usuarios finales sumó 118 billones de pesos. En la página 18 del Informe anual se presenta un esbozo de lo que será CoDi, que en ese momento se le denominaba como el desarrollo de un esquema RTP (Request To Pay) enfocado a plataformas móviles, un poco más de detalles técnicos, pero no muchos, solo una página. En fin, en términos de madurez de la plataforma y el esfuerzo realizado, Banxico lleva un buen camino y esfuerzos invertidos en el tema, sin embargo se reconoce la competencia que existe en el tema de las transferencias electrónicas, en el informe anual citado se menciona que «La mayor adopción del uso del SPEI para pagos de bajo valor por parte de los usuarios finales se ha visto acompañada de un incremento en la competencia en el mercado de transferencias electrónicas al menudeo.» Si esto es en el tema de transferencias, ¿cómo está el mercado de pagos de servicios?

Paypal, Samsung Pay, Telcel Pay, Rappit, Pagamobil y BBVA Wallet son algunas de las plataformas que hoy en día existen para hacer pagos de servicios, Telcel Pay es una alianza entre Paypal y Telcel, muchas de ellas funcionan solo en dispositivos móviles y otras, como Paypal y Mercado Pago están disponibles en sitios Web. Algunas de ellas tienen comisiones para los usuarios que pagan los bienes o servicios y otras las tienen para los que los cobran. De todas ellas la más destacada, desde mi punto de vista, es Paypal, que en México ha operado desde el 2011 y alrededor del mundo cuenta con 227 millones de usuarios activos, según el reporte de operaciones de 2017; la lista de negocios en los cuales se pueden realizar pagos en el país es bastante amplia, aunque solo está compuesta de tiendas en línea. Samsung Pay en México, funciona como una cartera digital, por tanto se puede utilizar para pagar en supermercados, gasolinerías y comercios que cuenten con terminales que soporten NFC (Near Field Communication), como iZeetle, Clip o Feenicia.  Paypal y Samsung Pay son dos modelos totalmente distintos de medios de pagos que funcionan como intermediarios entre comercios y prestadores de servicios, consumidores y el dinero de estos, ya sea tarjetas de crédito o fondos en efectivo, ¿podrían converger en uno solo? Bueno, Paypal compró iZeetle en septiembre del año pasado por $2.2 billones de dólares, más del doble de lo que Facebook por Instagram, lo cual lo pone en el punto en el que yo esperaría que CoDi  estuviera.

Si CoDi, permite realizar pagos en comercios, en gasolinerías, estacionamientos, etc., sería una buena opción en el mercado, sería aún mejor si todos los bancos que hoy en día usan SPEI permitieran el uso de CoDi con sus cuentas, y qué mejor que todos aquellos que tienen una cuenta en el banco, pero no una tarjeta de crédito (más del 68% de los adultos en México según los resultados de la Encuesta Nacional de Inclusión Financiera 2018) puedan realizar compras en línea de manera segura. Hay varios escenarios en los que veo a CoDi representando una diferencia; por experiencia personal, he encontrado materiales de curación y equipos ortopédicos más baratos en línea que en tiendas especializadas, en muchos casos la diferencia es casi del 100%, pero su compra requiere Paypal o Mercadopago en el mejor de los casos. Tres servicios que uso no los puedo pagar desde el portal de mi banco, por lo que puedo optar por pagarlos en las instalaciones de los prestadores, en una tienda de conveniencia o en una sucursal bancaria; en lugar de eso espero que CoDi me permita realizar los pagos con cargo a mi cuenta bancaria.

Todo esto espero de CoDi, tal vez llegue a ser eso, tal vez no lo sea, pero el hecho de tener detrás a Banxico me da esperanzas en su utilidad.

Engie México pone su granito de arena en la cuesta de enero, ¿por falta de ITIL?

Por Omar Morales

Recibí en Enero de este año la factura por el servicio de gas natural de Engie México con un aumento del 110% en el monto con relación a la factura del mes anterior, con bastante malestar supuse que el aumento podría deberse a un mayor uso del combustible por el tema del frío, principalmente relacionado con el calentador de agua, pero, tristemente después, en un comunicado de le empresa, supe que las razones eran otras. Engie México (antes Engie Maxigas) declaró en un comunicado que una de las razones para el aumento fue «el incremento registrado en el precio de venta del gas natural nacional de PEMEX … entre 40 y 49% en promedio», no hay mucho que se pueda comentar al respecto desde el punto de vista de las TI, pero la otra razón, es una «belleza» solo por el título: «Sistema de facturación».

La historia, en resumen, es la siguiente: un nuevo sistema de facturación se implementó en la segunda mitad del 2018, lo cual llevó a aumentar el periodo de facturación entre 4 y 11 días y por tanto, a un aumento de hasta el 30% en el monto de las facturas. Afortunadamente el monto y los días facturados estarán, por decirlo de una forma, a favor en la siguiente factura, y de ahí en adelante, los periodos serán consistentes. En toda la explicación de esta razón del aumento la frase clave es la siguiente: «Lamentamos no haberle comunicado con anticipación estas modificaciones a nuestra facturación, nos encontramos corrigiendo todos los impactos de estos cambios», que, para los clientes afectados se puede leer como: «hicimos un cambio en el periodo de facturación y no nos pareció necesario comunicarles porque es nuestro sistema y de todas formas van a tener que pagar» aunque no sea esto lo que realmente pensaron.

En todos los años que llevo trabajando en las Tecnologías de Información no veo este caso como una excepción en la implementación o actualización de un sistema, si hago memoria recuerdo más como excepción el que estos procesos no hayan generado una molestia, menor o mayor en los usuarios finales y, por tanto, en las áreas y personas responsables de los sistemas. En muchas ocasiones, las afectaciones no se debieron a errores o problemas en el funcionamiento o en la configuración de los sistemas, ni siquiera por retrasos en el tiempo de entrega; regresemos al caso del nuevo sistema de facturación de Engie México, sin tener conocimiento de las razones que llevaron a ampliar el periodo de la facturación, puedo afirmar que su funcionamiento fue el correcto: la medición fue la correcta, los montos se calcularon de manera correcta, recibí la factura en casa y los datos de la misma estaban impresos de acuerdo con los requisitos fiscales, ¿es el aumento en el periodo de facturación algo que pueda tomarse como una decisión técnica? Yo creo que no. ¿de qué tamaño fue la afectación a los usuarios de Engie México? De acuerdo con información de su sitio, la empresa tiene 6 áreas de distribución de Gas Natural, tres de ellas en estados densamente poblados: Estado de México, Puebla y Jalisco; en una entrevista concedida a El Financiero en febrero del 2018, Fernando Tovar, director general de la compañía en México, comentó que Engie México tiene 500,000 clientes de gas natural y aunque muchos de ellos podrían ser clientes empresariales o de flotillas de vehículos, el número no es menor.

¿De qué forma se podrían evitar y prevenir estas afectaciones? En primer lugar habría que identificar el origen de estas; muchos de los problemas que surgen por las actividades de desarrollo y configuración deberían estar controladas por la aplicación de una metodología de desarrollo y una de administración de proyectos, ese es el objetivo de ambas, pero, ¿qué hacer con aquellas que no son técnicas? Insisto, en el caso del nuevo Sistema de Facturación de Engie no parece que la afectación haya sido generada por una decisión técnica, parece más algo que pudiera identificarse como parte de los riesgos en la administración del proyecto, pero, ¿cómo se controla fuera del proceso de desarrollo y configuración del sistema? La respuesta podría estar en el Servicio de Transición de ITIL (Information Technology Infrastructure Library).

ITIL es un conjunto de conceptos y buenas prácticas usadas para la gestión de servicios de tecnologías de la información que va desde la desde la definición de una estrategia de servicios hasta la operación y mejora de los mismos. ITIL ha sido utilizada y perfeccionada por más de 20 años y la versión más reciente fue publicada en julio de 2011. No es el objetivo de este artículo el revisar a detalle toda la información acerca de ITIL, hay mucha información detallada al respecto, procesos de certificación e incluso maestrías enfocadas en el tema, baste saber que de los cuatro servicios que la integran, en el servicio de transición es donde se «planea para asegurarse que los usuarios, el personal de soporte y el ambiente de producción han sido preparados para la liberación a producción» (traducción del autor al texto: planning to ensure that users, support personnel and the production environment have been prepared for the release to production), hago hincapié en la inclusión de los usuarios en el proceso de planeación.

¿Podría ser que Engie México omitió este paso? ¿o podría ser que no se esperaba tal afectación por aumentar el periodo de facturación? ¿podrían identificarse, evitarse y/o eliminarse este tipo de afectaciones? Espero sus comentarios al respecto.

CoDi, plataforma de Cobro Digital creada como extensión del SPEI de Banco de México: seguridad y transparencia

Por Omar Morales

Opacada por el tema del desabasto de gasolina (o como quiera que se le deba nombrar al fenómeno de las filas interminables en las gasolinerías), el martes 8 de enero se llevó a cabo la presentación del Programa de Impulso al Sector Financiero del Gobierno de AMLO, el cual consta de 8 acciones que ejecutarán la Secretaria de Hacienda y Crédito Público (SHCP) y el Banco de México (Banxico).  La primera acción expuesta es la creación por parte de Banxico de CoDi, una nueva plataforma de cobro digital que » permitirá pagos seguros, expeditos y gratuitos tanto en compras presenciales como remotas», según el comunicado del organismo. Esta nueva plataforma será una extensión del Sistema de Pagos Electrónicos Interbancarios (SPEI), el cual, según el mismo comunicado «a diferencia de otros países, funciona las 24 horas de todos los días del año, realiza los pagos de manera inmediata». Aquí viene mi primer comentario: no sé si es solo el banco en el cual tengo mi cuenta, pero yo no puedo hacer transferencias después de las 5:30 pm. Bueno, corrijo, puedo programar una transferencia, pero esta se realizará hasta el día siguiente, así que, seguro funciona las 24 horas del día, pero no «ejecuta» las transferencias en las 24 horas del día.

Una de las premisas que plantea Banxico para el desarrollo de CoDi es el uso de «altos estándares de seguridad, eficiencia y rapidez», lo cual es lo menos que se espera de una plataforma como esta, sin embargo,  a estos puntos se debieron agregar la comunicación pronta, transparente y clara de cualquier falla o problema que pudiera detectarse por parte de Banxico y de las instituciones financieras, es lo menos que se espera después de los problemas que se presentaron en el SPEI en abril del año pasado. Debemos recordar la forma en que inicialmente se abordó el problema por parte del organismo, afirmando el 27 de abril que «la infraestructura del SPEI en Banco de México no ha sufrido afectación alguna y no existen indicios de afectaciones a los recursos de los clientes de ninguna de las instituciones participantes en el referido sistema», solo para que el 14 de mayo, en una entrevista concedida a CNN por el entonces gobernador del organismo, Alejandro Díaz de León, se confirmara que «si se trató de un ciberataque al aplicativo paralelo de algunos bancos, cuyo monto está por definirse, pero se considera bajo y reducido”. Curiosamente en el comunicado oficial del organismo del mismo día nada se menciona al respecto, aunque en un micrositio adicional, al cual no pude llegar navegando en el portal de Banxico, se presenta información a detalle al respecto, por ejemplo, que el monto del ataque fue de 300 millones de pesos.

Viendo en perspectiva el problema, y citando las palabras de más de un experto en seguridad informática: «el tema no es que te vayan a hackear, eso va a pasar tarde o temprano, el tema es tener un plan de contingencia adecuado para dimensionar, detener y solucionar el problema, incluyendo la comunicación clara que debes hacer a tus clientes»; por lo sucedido el año pasado Banxico, la Comisión Nacional Bancaria y de Valores y los bancos en general, pueden tener parte del plan creado e incluso probado, pero la comunicación clara es algo que no se les da o no quieren manejar, por citar un ejemplo de esto, en el reporte titulado Puntos importantes sobre la situación actual del SPEI que está en el micrositio citado, lo primero que se lee es «Se tienen registrados 5 participantes con vulneraciones de ciberseguridad…» más nunca se menciona quienes son, solo después trascendió que Banorte fue uno de esos participantes.

Ahora, pensando de manera positiva, esta experiencia debió dejarles varias enseñanzas, tanto al organismo como a las instituciones involucradas, y por extensión a todo el sistema bancario, esperemos que esta experiencia sirva para llevar a buen puerto la plataforma CoDi en desarrollo.

¿Qué podemos esperar de Codi? ¿Cuándo estará lista? ¿Será competencia de PayPal y de plataformas similares ya en operación de Apple, Samsung, Google e incluso del banco mexicano BBVA Bancomer? Escribiré al respecto en breve.

 

El CINVESTAV y la/su brecha digital

Por Omar Morales

En algún momento de este 2018, en una emisión de La Oveja Eléctrica del Canal 22, me enteré que el CINVESTAV (Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional), en conjunto con el CONACyT (Consejo Nacional de Ciencia y Tecnología) y el COMECyT (Consejo Mexiquense de Ciencia y Tecnología) crearon ABACUS, el Laboratorio de Matemáticas Aplicadas y Cómputo de Alto Rendimiento en el cual se encuentra ABACUS I, la supercomputadora más potente de Latinoamérica, al menos hasta febrero de 2018 lo era. De acuerdo con la información del programa, esta supercomputadora tiene un rendimiento neto de 429 Teraflops, que en términos muy simplistas significa que puede ejecutar 429 trillones de operaciones matemáticas de punto flotante por segundo; una analogía que se usa en el mismo programa es que su poder de cómputo equivale al de 25,000 laptops funcionando simultáneamente. El edificio que alberga el Laboratorio tiene un diseño muy vanguardista que, según palabras del líder del proyecto Isodoro Gitler, fue diseñado matemáticamente; y es en realidad impresionante su vista desde la carretera México – Toluca.

El uso que se le da a esta supercomputadora es loable y, siendo egresado del IPN, me parece excelente que exista este tipo de infraestructura para la investigación científica, que el uso de computadoras tenga este fin; sin embargo, el tener una supercomputadora en el CINVESTAV no ha hecho a esta institución más ágil, y no es que sea ese el objetivo de tener una supercomputadora, pero el tener ese tipo de equipo debería ser un punto de inflexión para mover a toda la institución hacia el uso de las TI. ¿A qué me refiero con esto? Al hecho de que una institución que tiene una supercomputadora no debería pedir a sus proveedores llevar las facturas de sus productos o servicios IMPRESAS. Ahora, este podría ser el menor de los males, finalmente podría justificarse como un soporte o para tener un archivo de consulta, el problema es que la VALIDACIÓN QUE SE OBTIENE DEL SITIO WEB DEL SAT TAMBIÉN DEBE LLEVARSE IMPRESA. En el primer piso del edificio marcado en el mapa de su página como Coordinación de Relaciones Internacionales/Servicios Escolares y becas de las instalaciones de Zacatenco, en la ventanilla de recepción de facturas, está la lista con los requisitos para que cualquiera pueda corroborar esta información.

Lo que este tipo de solicitudes revela es la falta de procesos tecnológicos para la recepción y validación de facturas, el uso intensivo de papel, junto con la cantidad de tiempo que se requiere y problemas que esto genera (traspapeleos, perdidas, reimpresiones al presentar correcciones, copias para tener acuse de recibo firmado, etc.), en fin, los típicos problemas que las organizaciones tienen cuando la inversión en tecnología para los procesos de backoffice se considera un gasto superfluo. ¿Qué tanto puede afectar al CINVESTAV esta situación? O, de manera directa, ¿Podría afectar esto al uso que se haga de la supercomputadora Abacus? Es probable que si, sobre todo si los otros procesos administrativos funcionan también de esa forma, como la generación y revisión de presupuestos, la generación y aprobación de órdenes de compra, los procesos de recepción de servicios y productos.

¿Por qué debe preocupar en general este tipo de comportamiento en las organizaciones? Existe un término llamado brecha digital que representa la separación que existe entre las personas que utilizan las Tecnologías de la Información y Comunicación como una parte rutinaria de su vida diaria y aquellas que no tienen acceso a las mismas y que, aunque las tengan, no sabe como utilizarlas. El término está enfocado a las personas, y en el caso de México se puede medir de alguna forma con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares que realiza el INEGI y, de acuerdo con estos datos, a pesar de que hay mayor penetración de las TIC en la vida de los mexicanos, la brecha existe y en algunos casos no se ha reducido. Un estudio enfocado a la brecha digital existente en las organizaciones puede encontrarse en el estudio Perspectivas de la OCDE sobre la Economía Digital 2017, en el cual se encuentran datos como los siguientes (fuente: ANTAD:

  • El uso de internet para asuntos de negocios entre PyMEs es de 77 por ciento, mientras que para grandes compañías es de 98 por ciento.
  • Las empresas mexicanas en promedio son las que menos usan internet, ya que en total sólo el 79 por ciento de las compañías están conectadas a la red.
  • En promedio, sólo el 41.5 por ciento de las compañías tienen un sitio de internet propio, lo cual es muy bajo respecto al promedio OCDE, que es de 77 por ciento.
  • Entre los países OCDE, México es el país donde las empresas menos usan internet para hacer negocios

En resumen, las empresas en México podrían estar haciendo negocios más lento y con menos visibilidad que en el resto de los países de la OCDE, para el caso de las instituciones de gobierno, su atención sería también lenta hacia los ciudadanos y con la necesidad de presencia física para realizar trámites. Ahora, ¿cómo medir la brecha digital interna en las empresas y la forma que afecta a estas? ¿Cómo afecta a las empresas que tienen sitios en internet y usan este medio para hacer negocios el que algunos procesos internos,  sustantivos o no, se lleven a cabo con poco o nulo uso de la tecnología? ¿Qué tanto afecta a los investigadores del CINVESTAV el que los procesos administrativos funcionen como funcionan hoy? Un ejemplo de estas afectaciones, y que puede dar una idea de que puede ser demasiado arriesgado tener esta brecha digital interna, es el siguiente anécdota que me relataron en un proyecto: una empresa multinacional establecida en México tuvo que enfrentar una demanda por el uso de cierta información en la publicidad de uno de sus productos, como parte del juicio se le solicitó información al respecto, al no ser información reciente, el área jurídica va a su archivo histórico a buscar la información. El archivo histórico está ubicado en un almacén del Estado de México integrado por algo así como 400 cajas, el personal del área jurídica son 5 personas, a pesar del esfuerzo realizado no pudieron cumplir con la fecha límite para la presentación de la información, la empresa pierde la demanda y debe pagar una indemnización y además cambiar la publicidad generada, las perdidas se estimaron en millones de dólares.

Ojalá y algún proveedor no cancele un servicio de mantenimiento a la supercomputadora o el envío de alguna refacción al CINVESTAV por la pérdida de una factura o alguna situación similar que se puede dar por el manejo del papel.

Lo que pudo ser: Perceptive Software (Parte II)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Perceptive Software, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

En primer lugar agradezco los comentarios a la primera parte de esta pequeña historia, más a aquellos con los que compartí esa etapa; espero recibir más retroalimentación a esta continuación. Voy a retomar esta historia en el tema del foco, en algo que considero como el exceso de foco, más que en un tema tecnológico, foco en una línea de negocio. Como relaté en la primera parte de esta historia, Lexmark adquirió en marzo de 2012 a Brainware Distiller, una plataforma de extracción inteligente de datos, que puede llevar a cabo la validación de los mismos y la ingesta a sistemas tales como SAP, PeopleSoft o similares. Si bien la plataforma puede trabajar con cualquier tipo de documentos, su solución estrella es el procesamiento de facturas (Accounts Payable, AP); es una de las pocas soluciones de OCR y extracción de datos que he visto funcionar con mínima configuración fuera de la caja. Siempre a manera de demostración podía pedir una factura cualquiera digitalizada a los clientes, ingresarla a la solución de AP y ver como extraía casi todos los datos: RFC o Tax ID, fecha de emisión, número de la factura, dirección del proveedor, artículos incluidos, subtotal y total; las fallas eran regularmente en la sección de los artículos o identificando la tasa de impuestos, pero, considerando que esa funcionalidad se obtiene sin tocar la configuración, pues si era impresionante. Un par de casos de éxito que pueden dar una idea de los beneficios de la solución son: Disney, que incluso la llevó a ganar un premio a la innovación, y Siemmens; en ambos casos con ahorros significativos y aumentos en eficiencia.

Ahora, si has leído con detenimiento el párrafo anterior y estás en México seguro habrás pensado o dicho en voz alta: «No es necesario aplicar OCR, ni extraer datos si tu factura es un XML», esto es totalmente cierto. En México, como en Brasil, las facturas electrónicas son obligatorias en formato XML, en nuestro país desde el 2009 y en Brasil un par de años antes; aunque al parecer esto no era del conocimiento al momento de tomar las decisiones estratégicas comerciales respecto a Brainware AP en Latinoamérica, solo fue hasta que tuvimos un par de experiencias directas que se entendió la situación. La primera fue una conferencia telefónica, afortunadamente, en la cual se le presentó la funcionalidad de Brainware AP a una empresa de transportes de Nuevo León y pues, con la franqueza que caracteriza a los mexicanos de ese estado de la república, la presentación se interrumpió con un: «Eso no lo necesitamos,  nuestras facturas llegan directo a SAP, gracias y hasta luego.» La segunda tuvo que ser más «completa», por calificarla de alguna forma, se tuvo que revisar la cuenta y el proceso de recepción de facturas a detalle para llegar a una conclusión semejante. Visitamos la empresa y revisamos su proceso de recepción, clasificación y procesamiento de las facturas; en este punto se decidió que, ya que las facturas emitidas en México se recibían en electrónico, entonces el análisis se enfocaría a las facturas emitidas en el extranjero, que en el caso de esta empresa eran un par miles al mes. Una vez recabada esta información se calculó el licenciamiento, servicios e infraestructura requeridos y se comparó la inversión contra el gasto actual en un ejercicio muy sencillo de retorno de inversión. El resultado fue que, dado que la mano de obra en México para procesar facturas es muy barata, pues no había forma de lograr un retorno de inversión con el volumen de facturas recibidas y el personal empleado, esto habría sido menos frustrante si la empresa tuviera sus oficinas en Celaya y no hubiera tenido que viajar en coche varias veces hasta allá.

En este momento de la historia, dejé de laborar para Perceptive Software y Lexmark en pos de una oportunidad muy interesante de trabajo, la cual podría dar para escribir otro artículo en el futuro; pero, por la capacidad que veía en la plataforma y los conocidos que aún trabajaban ahí, seguí  al tanto de las adquisiciones y evolución del portafolio. Dos noticias me causaron gran impacto en los siguientes años: la adquisición de ReadSoft en mayo del 2014 y la adquisición de Kofax en marzo de 2015, particularmente esta última, ya que consideraba, y considero, a Kofax lo mejor que existe en el mercado para la digitalización de documentos (Forrester también lo consideró así en el informe The Forrester Wave: Multichannel Capture, Q3 2012). Además del stack tecnológico en cuestión de software con que contaba la compañía, lo que me parecía una gran adición a a los equipos multifuncionales era la tecnología VRS, la cual mejora la calidad  de las imágenes digitalizadas con muy poca o nula interacción por parte de los usuarios, aunque es una tecnología basada en software, Kofax tenía entonces una larga historia trabajando con hardware, como las tarjetas Adrenaline, por lo que extender la capacidad de los equipos parecía un paso muy natural y sencillo. La compra de ReadSoft estaba enfocada a integrar el resto del mercado de AP que aún no estaba en posesión de Brainware, estas dos ofertas eran las que lideraban el segmento en ese momento.

Entonces, Lexmark tenía en 2016 dos motores de extracción inteligente de datos, la mejor plataforma de digitalización del mercado, una plataforma de ECM bastante flexible, poderosa y a la vez fácil de implementar, módulos especializados en la administración de contenido especializado del sector salud, funcionalidad BPM, multifuncionales increíbles y servicios administrados de impresión, por todo esto Gartner los colocó en la posición de retadores en su cuadrante mágico de Enterprise Content Management del 2016. Con ese poder el cielo era el límite, ¿qué malo podría pasar?

Bueno en noviembre de 2016 Lexmark fue adquirida por una empresa china de cuyo nombre no quiero acordarme, pero que vieron lo que en México ya sabían: el negocio está en el toner y los multifuncionales, y el software no entraba en la ecuación. A raíz de esto la división de software de Lexmark se vendió en dos partes, primero Hyland Software se llevó a Perceptive Software, Brainware, Acuo VNA, PACSGEAR, Claron, Nolij, Saperion, Pallas Athena, ISYS, y Twistage y luego Kofax y ReadSoft formaron una compañía aparte bajo el control de Thoma Bravo, una compañía de inversión de capital privado, curiosamente Thoma Bravo tiene inversiones también en Hyland Software.

Así, en poco más o menos de un año, el potencial de la suma de todas esas tecnologías se diluyó, la integración de Perceptive dentro de la línea de productos de Hyland, donde ya existe OnBase, está en proceso, al menos los productos relacionados con el sector Salud tienen una línea de negocios visible,  Kofax y ReadSoft siguen adelante y Lexmark tiene una nueva línea de multifuncionales.  ¿Qué habría pasado si toda esta tecnología siguiera en la misma empresa? No hay forma de saberlo, las preguntas que el tiempo si ayudará a responder son: ¿continuará diluyéndose Perceptive dentro de Hyland, como le sucedió a las empresas que adquirió cuando era parte de Lexmark? ¿Por cuánto tiempo permanecerá Kofax independiente con todo el potencial de captura inteligente y automatización que tiene? ¿Será Apex, la empresa que compró a Lexmark, la gran ganadora de esta historia desde el punto de vista comercial? Ya veremos.

Lo que pudo ser: Perceptive Software (Parte I)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Perceptive Software, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

Uno de los periodos más intensos e interesantes en cuanto a innovación tecnológica que he vivido fue durante mi estancia en Perceptive Software de Lexmark, justo entre la adquisición de Brainware Dsitiller y la adquisición de Readsoft; estar en Perceptive Software me permitió conocer de primera mano los procesos de integración de compañías y tecnologías adquiridas por Lexmark, así como la visión que se forma a partir de estas integraciones. Si bien en ese periodo de tiempo viajé solo un par de veces a las oficinas principales de Perceptive Software en Kansas, agradezco la cultura de comunicación que la empresa tenía para estar al tanto de los cambios que se presentaban. Como una breve introducción a Perceptive Software debo mencionar que las instalaciones en Kansas tenían mucho de la cultura de bienestar hacia el empleado que hay en empresas como Google o Microsoft (en USA, claro está), es decir, había comida y bebida gratis disponible en todo momento, un gimnasio con duchas, cancha de dodgeball y mesa de ping pong en el sótano, los jueves había buffet temático e incluso había un tobogán desde el segundo piso a la planta baja. En una de las visitas tuve oportunidad de conocer en persona a Steve Wozniak, quien asistió a una de las reuniones semanales a dar un mensaje de apoyo y admiración a la compañía, Steve entró a la reunión montado en un segway, para darle un “Silicon Valley touch” a su presentación. Si, Perceptive Software era una empresa con ambiciones, fortalezas y una visión muy clara de lo que quería en el mercado de ECM.

En México mi lugar de trabajo estaba en las oficinas de Lexmark, en Santa Fe; en este lugar tuve mi primer contacto con los equipos multifuncionales y la tecnología de Administración de Servicios de Impresión, MPS por sus siglas en inglés; ambos elementos me parecieron valiosos y útiles para las organizaciones, los primeros por sus capacidades y funcionalidades y el segundo por el modelo tecnológico y económico que representaba. Los multifuncionales de Lexmark, desde entonces y hasta ahora, me parecen de lo mejor que existe en el mercado para agilizar los procesos de negocio en cualquier organización, más allá de conjuntar en un solo dispositivo la impresión, fotocopiado, digitalización de documentos e incluso envío de fax (si es que alguien aún lo hace) con el ahorro en espacio y costos que representa el sustituir dispositivos que solo hagan una de esas funciones, el hecho de que puedan crearse aplicaciones a la medida y que estén disponibles a través de su pantalla táctil ofrece posibilidades casi ilimitadas. Una aplicación que puede servir de ejemplo de la capacidad de estos equipos es la calificación de hojas de respuestas de exámenes. Primero se imprimen las hojas de respuestas del tipo de rellenar el círculo de la opción correcta, a, b, c o d, conocidas como alveolos, después de que las personas marcan las respuestas en las hojas se digitalizan en el mismo multifuncional y, por medio de una aplicación que aplica reconocimiento óptico de marcas (OMR), se califican las hojas de respuesta y se imprime la calificación. Esta capacidad me llevó a pensar que con la aplicación correcta un multifuncional puede convertirse en una estación de enrolamiento donde imprimes formatos predefinidos, envías por correo los documentos firmados, además de que algunos datos podrían extraerse por OMR, OCR o lectura de código de barras en el mismo equipo sin necesidad de una computadora, e incluso sin un ECM de por medio.

Para sacar provecho de la capacidad de los multifuncionales, Perceptive Software creó una aplicación que permitía hacer la clasificación de los documentos, capturar algunos datos de los mismos en la pantalla del multifuncional y enviarlos directamente al repositorio, iniciando incluso un flujo de trabajo si era necesario. Ya dentro de Perceptive Software era posible hacer cosas más interesantes con los documentos, como enviarlos al motor de captura inteligente de datos de Brainware Distiller para su clasificación más exacta y la extracción de datos, y, para poner la cereza al pastel, ¿qué tal si se lleva a cabo la consulta de los documentos desde aplicaciones como SAP, Oracle eBusiness Suite, legados o incluso aplicaciones de terminal por medio de un solo clic? Esto es posible en el cliente pesado de Perceptive Software sin necesidad de programar, instalar plugins o consumir servicios Webs; créanme, las demostraciones de esta funcionalidad eran para irse de espaldas de lo fácil y eficiente que era el proceso. Por decirlo de alguna forma los escenarios de aplicación eran (¿o serán aún?) ilimitados, ¿acaso no es la respuesta a cualquier proceso de enrolamiento, apertura de cuenta, credencialización o similar? ¿Por qué no se convirtió esta combinación de tecnologías en un caso de éxito más extenso, al menos no en Latinoamérica? Muchos factores deben explicarse para dar respuesta a esta pregunta.

En primer lugar, la vorágine de adquisiciones de compañías que se dio en este periodo de tiempo hicieron que los esfuerzos de integración se diversificaran, así como los esfuerzos de preventa: recién se había adquirido Pallas Athena un BPM holándes a finales de 2011, en marzo de 2012 se adquirió Isys, un motor de búsqueda australiano y Nolij, un ECM enfocado al sector de educación en USA; en enero de 2013 se adquirió Acuo, una plataforma para la administración de contenido especializado en el sector salud, con todas las particularidades que este sector requiere; en marzo de ese mismo año se adquirieron AccessVia y Twitstage, la primera era una solución de impresión para grandes cadenas departamentales y la segunda una plataforma de administración de video; en agosto de 2013 se adquirió Saperion un ECM/BPM muy completo y en octubre del mismo año Pacsgear, una solución de conectividad para equipos de imagenología médica y administración de registros del mismo sector. De al menos la mitad de estas compañías en algún momento estuve involucrado en una preventa, y en ese momento me di cuenta de la dificultad de interactuar con personal de compañías que están siendo adquiridas, que no saben que pueden o no hacer aún o que información pueden o no compartir, además de que varios estaban involucrados en procesos de reubicación y otros estaban en husos horarios diferentes. ¿Por qué preventas tan diversas? Bueno, en parte debo asumir la culpa, junto con el resto del equipo comercial, de una falta de foco, la otra parte está asociada a la estrategia de ventas que Lexmark, al menos en México tuvo en relación a su oferta de ECM. Hubo esfuerzos específicos por parte del personal de ventas que veían el potencial en el portafolio de software que se estaba generando, pero su cuota y sus objetivos siempre estuvieron puestos en la venta de los multifuncionales o de MPS; y no es que esto fuera malo, finalmente Lexmark en México tiene una presencia importante en varios sectores, el problema es que el foco en México no coincidía con lo que se veía en USA o en otros países de Latinoamérica. Ahora, los esfuerzos que se hacían en muchas ocasiones tenían poco impacto por la falta de capacidad para evaluar los requerimientos, la cuenta o la competencia. En más de una ocasión tuve que participar en preventas, para México y para Latinoamérica, donde las bases estaban claramente dirigidas a plataformas como Documentum o Filenet y el personal de ventas no podía creer que no se pudiera competir; en otras el requerimiento era algo que no se podía solucionar con una plataforma de ECM, pero las que verdaderamente eran frustrantes eran aquellas en las que con mínima información pedían una cotización de licenciamiento y servicios, del estilo de: “¿cuánto costaría digitalizar actas de nacimiento y extraer los datos?”, así, sin saber cuántas actas, en qué condiciones estaban, qué datos se debían extraer, cuántas personas consultarían las actas, etc., etc., etc.

Puede que esta falta de foco comercial fuera uno de las principales razones del fracaso, pero otra razón, fuerte también, es el exceso de foco comercial, como lo escribiré en la siguiente parte.