Archivo de la categoría: ECM

El CINVESTAV y la/su brecha digital

Por Omar Morales

En algún momento de este 2018, en una emisión de La Oveja Eléctrica del Canal 22, me enteré que el CINVESTAV (Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional), en conjunto con el CONACyT (Consejo Nacional de Ciencia y Tecnología) y el COMECyT (Consejo Mexiquense de Ciencia y Tecnología) crearon ABACUS, el Laboratorio de Matemáticas Aplicadas y Cómputo de Alto Rendimiento en el cual se encuentra ABACUS I, la supercomputadora más potente de Latinoamérica, al menos hasta febrero de 2018 lo era. De acuerdo con la información del programa, esta supercomputadora tiene un rendimiento neto de 429 Teraflops, que en términos muy simplistas significa que puede ejecutar 429 trillones de operaciones matemáticas de punto flotante por segundo; una analogía que se usa en el mismo programa es que su poder de cómputo equivale al de 25,000 laptops funcionando simultáneamente. El edificio que alberga el Laboratorio tiene un diseño muy vanguardista que, según palabras del líder del proyecto Isodoro Gitler, fue diseñado matemáticamente; y es en realidad impresionante su vista desde la carretera México – Toluca.

El uso que se le da a esta supercomputadora es loable y, siendo egresado del IPN, me parece excelente que exista este tipo de infraestructura para la investigación científica, que el uso de computadoras tenga este fin; sin embargo, el tener una supercomputadora en el CINVESTAV no ha hecho a esta institución más ágil, y no es que sea ese el objetivo de tener una supercomputadora, pero el tener ese tipo de equipo debería ser un punto de inflexión para mover a toda la institución hacia el uso de las TI. ¿A qué me refiero con esto? Al hecho de que una institución que tiene una supercomputadora no debería pedir a sus proveedores llevar las facturas de sus productos o servicios IMPRESAS. Ahora, este podría ser el menor de los males, finalmente podría justificarse como un soporte o para tener un archivo de consulta, el problema es que la VALIDACIÓN QUE SE OBTIENE DEL SITIO WEB DEL SAT TAMBIÉN DEBE LLEVARSE IMPRESA. En el primer piso del edificio marcado en el mapa de su página como Coordinación de Relaciones Internacionales/Servicios Escolares y becas de las instalaciones de Zacatenco, en la ventanilla de recepción de facturas, está la lista con los requisitos para que cualquiera pueda corroborar esta información.

Lo que este tipo de solicitudes revela es la falta de procesos tecnológicos para la recepción y validación de facturas, el uso intensivo de papel, junto con la cantidad de tiempo que se requiere y problemas que esto genera (traspapeleos, perdidas, reimpresiones al presentar correcciones, copias para tener acuse de recibo firmado, etc.), en fin, los típicos problemas que las organizaciones tienen cuando la inversión en tecnología para los procesos de backoffice se considera un gasto superfluo. ¿Qué tanto puede afectar al CINVESTAV esta situación? O, de manera directa, ¿Podría afectar esto al uso que se haga de la supercomputadora Abacus? Es probable que si, sobre todo si los otros procesos administrativos funcionan también de esa forma, como la generación y revisión de presupuestos, la generación y aprobación de órdenes de compra, los procesos de recepción de servicios y productos.

¿Por qué debe preocupar en general este tipo de comportamiento en las organizaciones? Existe un término llamado brecha digital que representa la separación que existe entre las personas que utilizan las Tecnologías de la Información y Comunicación como una parte rutinaria de su vida diaria y aquellas que no tienen acceso a las mismas y que, aunque las tengan, no sabe como utilizarlas. El término está enfocado a las personas, y en el caso de México se puede medir de alguna forma con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares que realiza el INEGI y, de acuerdo con estos datos, a pesar de que hay mayor penetración de las TIC en la vida de los mexicanos, la brecha existe y en algunos casos no se ha reducido. Un estudio enfocado a la brecha digital existente en las organizaciones puede encontrarse en el estudio Perspectivas de la OCDE sobre la Economía Digital 2017, en el cual se encuentran datos como los siguientes (fuente: ANTAD:

  • El uso de internet para asuntos de negocios entre PyMEs es de 77 por ciento, mientras que para grandes compañías es de 98 por ciento.
  • Las empresas mexicanas en promedio son las que menos usan internet, ya que en total sólo el 79 por ciento de las compañías están conectadas a la red.
  • En promedio, sólo el 41.5 por ciento de las compañías tienen un sitio de internet propio, lo cual es muy bajo respecto al promedio OCDE, que es de 77 por ciento.
  • Entre los países OCDE, México es el país donde las empresas menos usan internet para hacer negocios

En resumen, las empresas en México podrían estar haciendo negocios más lento y con menos visibilidad que en el resto de los países de la OCDE, para el caso de las instituciones de gobierno, su atención sería también lenta hacia los ciudadanos y con la necesidad de presencia física para realizar trámites. Ahora, ¿cómo medir la brecha digital interna en las empresas y la forma que afecta a estas? ¿Cómo afecta a las empresas que tienen sitios en internet y usan este medio para hacer negocios el que algunos procesos internos,  sustantivos o no, se lleven a cabo con poco o nulo uso de la tecnología? ¿Qué tanto afecta a los investigadores del CINVESTAV el que los procesos administrativos funcionen como funcionan hoy? Un ejemplo de estas afectaciones, y que puede dar una idea de que puede ser demasiado arriesgado tener esta brecha digital interna, es el siguiente anécdota que me relataron en un proyecto: una empresa multinacional establecida en México tuvo que enfrentar una demanda por el uso de cierta información en la publicidad de uno de sus productos, como parte del juicio se le solicitó información al respecto, al no ser información reciente, el área jurídica va a su archivo histórico a buscar la información. El archivo histórico está ubicado en un almacén del Estado de México integrado por algo así como 400 cajas, el personal del área jurídica son 5 personas, a pesar del esfuerzo realizado no pudieron cumplir con la fecha límite para la presentación de la información, la empresa pierde la demanda y debe pagar una indemnización y además cambiar la publicidad generada, las perdidas se estimaron en millones de dólares.

Ojalá y algún proveedor no cancele un servicio de mantenimiento a la supercomputadora o el envío de alguna refacción al CINVESTAV por la pérdida de una factura o alguna situación similar que se puede dar por el manejo del papel.

Lo que pudo ser: Perceptive Software (Parte II)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Perceptive Software, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

En primer lugar agradezco los comentarios a la primera parte de esta pequeña historia, más a aquellos con los que compartí esa etapa; espero recibir más retroalimentación a esta continuación. Voy a retomar esta historia en el tema del foco, en algo que considero como el exceso de foco, más que en un tema tecnológico, foco en una línea de negocio. Como relaté en la primera parte de esta historia, Lexmark adquirió en marzo de 2012 a Brainware Distiller, una plataforma de extracción inteligente de datos, que puede llevar a cabo la validación de los mismos y la ingesta a sistemas tales como SAP, PeopleSoft o similares. Si bien la plataforma puede trabajar con cualquier tipo de documentos, su solución estrella es el procesamiento de facturas (Accounts Payable, AP); es una de las pocas soluciones de OCR y extracción de datos que he visto funcionar con mínima configuración fuera de la caja. Siempre a manera de demostración podía pedir una factura cualquiera digitalizada a los clientes, ingresarla a la solución de AP y ver como extraía casi todos los datos: RFC o Tax ID, fecha de emisión, número de la factura, dirección del proveedor, artículos incluidos, subtotal y total; las fallas eran regularmente en la sección de los artículos o identificando la tasa de impuestos, pero, considerando que esa funcionalidad se obtiene sin tocar la configuración, pues si era impresionante. Un par de casos de éxito que pueden dar una idea de los beneficios de la solución son: Disney, que incluso la llevó a ganar un premio a la innovación, y Siemmens; en ambos casos con ahorros significativos y aumentos en eficiencia.

Ahora, si has leído con detenimiento el párrafo anterior y estás en México seguro habrás pensado o dicho en voz alta: «No es necesario aplicar OCR, ni extraer datos si tu factura es un XML», esto es totalmente cierto. En México, como en Brasil, las facturas electrónicas son obligatorias en formato XML, en nuestro país desde el 2009 y en Brasil un par de años antes; aunque al parecer esto no era del conocimiento al momento de tomar las decisiones estratégicas comerciales respecto a Brainware AP en Latinoamérica, solo fue hasta que tuvimos un par de experiencias directas que se entendió la situación. La primera fue una conferencia telefónica, afortunadamente, en la cual se le presentó la funcionalidad de Brainware AP a una empresa de transportes de Nuevo León y pues, con la franqueza que caracteriza a los mexicanos de ese estado de la república, la presentación se interrumpió con un: «Eso no lo necesitamos,  nuestras facturas llegan directo a SAP, gracias y hasta luego.» La segunda tuvo que ser más «completa», por calificarla de alguna forma, se tuvo que revisar la cuenta y el proceso de recepción de facturas a detalle para llegar a una conclusión semejante. Visitamos la empresa y revisamos su proceso de recepción, clasificación y procesamiento de las facturas; en este punto se decidió que, ya que las facturas emitidas en México se recibían en electrónico, entonces el análisis se enfocaría a las facturas emitidas en el extranjero, que en el caso de esta empresa eran un par miles al mes. Una vez recabada esta información se calculó el licenciamiento, servicios e infraestructura requeridos y se comparó la inversión contra el gasto actual en un ejercicio muy sencillo de retorno de inversión. El resultado fue que, dado que la mano de obra en México para procesar facturas es muy barata, pues no había forma de lograr un retorno de inversión con el volumen de facturas recibidas y el personal empleado, esto habría sido menos frustrante si la empresa tuviera sus oficinas en Celaya y no hubiera tenido que viajar en coche varias veces hasta allá.

En este momento de la historia, dejé de laborar para Perceptive Software y Lexmark en pos de una oportunidad muy interesante de trabajo, la cual podría dar para escribir otro artículo en el futuro; pero, por la capacidad que veía en la plataforma y los conocidos que aún trabajaban ahí, seguí  al tanto de las adquisiciones y evolución del portafolio. Dos noticias me causaron gran impacto en los siguientes años: la adquisición de ReadSoft en mayo del 2014 y la adquisición de Kofax en marzo de 2015, particularmente esta última, ya que consideraba, y considero, a Kofax lo mejor que existe en el mercado para la digitalización de documentos (Forrester también lo consideró así en el informe The Forrester Wave: Multichannel Capture, Q3 2012). Además del stack tecnológico en cuestión de software con que contaba la compañía, lo que me parecía una gran adición a a los equipos multifuncionales era la tecnología VRS, la cual mejora la calidad  de las imágenes digitalizadas con muy poca o nula interacción por parte de los usuarios, aunque es una tecnología basada en software, Kofax tenía entonces una larga historia trabajando con hardware, como las tarjetas Adrenaline, por lo que extender la capacidad de los equipos parecía un paso muy natural y sencillo. La compra de ReadSoft estaba enfocada a integrar el resto del mercado de AP que aún no estaba en posesión de Brainware, estas dos ofertas eran las que lideraban el segmento en ese momento.

Entonces, Lexmark tenía en 2016 dos motores de extracción inteligente de datos, la mejor plataforma de digitalización del mercado, una plataforma de ECM bastante flexible, poderosa y a la vez fácil de implementar, módulos especializados en la administración de contenido especializado del sector salud, funcionalidad BPM, multifuncionales increíbles y servicios administrados de impresión, por todo esto Gartner los colocó en la posición de retadores en su cuadrante mágico de Enterprise Content Management del 2016. Con ese poder el cielo era el límite, ¿qué malo podría pasar?

Bueno en noviembre de 2016 Lexmark fue adquirida por una empresa china de cuyo nombre no quiero acordarme, pero que vieron lo que en México ya sabían: el negocio está en el toner y los multifuncionales, y el software no entraba en la ecuación. A raíz de esto la división de software de Lexmark se vendió en dos partes, primero Hyland Software se llevó a Perceptive Software, Brainware, Acuo VNA, PACSGEAR, Claron, Nolij, Saperion, Pallas Athena, ISYS, y Twistage y luego Kofax y ReadSoft formaron una compañía aparte bajo el control de Thoma Bravo, una compañía de inversión de capital privado, curiosamente Thoma Bravo tiene inversiones también en Hyland Software.

Así, en poco más o menos de un año, el potencial de la suma de todas esas tecnologías se diluyó, la integración de Perceptive dentro de la línea de productos de Hyland, donde ya existe OnBase, está en proceso, al menos los productos relacionados con el sector Salud tienen una línea de negocios visible,  Kofax y ReadSoft siguen adelante y Lexmark tiene una nueva línea de multifuncionales.  ¿Qué habría pasado si toda esta tecnología siguiera en la misma empresa? No hay forma de saberlo, las preguntas que el tiempo si ayudará a responder son: ¿continuará diluyéndose Perceptive dentro de Hyland, como le sucedió a las empresas que adquirió cuando era parte de Lexmark? ¿Por cuánto tiempo permanecerá Kofax independiente con todo el potencial de captura inteligente y automatización que tiene? ¿Será Apex, la empresa que compró a Lexmark, la gran ganadora de esta historia desde el punto de vista comercial? Ya veremos.

Lo que pudo ser: Perceptive Software (Parte I)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Perceptive Software, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

Uno de los periodos más intensos e interesantes en cuanto a innovación tecnológica que he vivido fue durante mi estancia en Perceptive Software de Lexmark, justo entre la adquisición de Brainware Dsitiller y la adquisición de Readsoft; estar en Perceptive Software me permitió conocer de primera mano los procesos de integración de compañías y tecnologías adquiridas por Lexmark, así como la visión que se forma a partir de estas integraciones. Si bien en ese periodo de tiempo viajé solo un par de veces a las oficinas principales de Perceptive Software en Kansas, agradezco la cultura de comunicación que la empresa tenía para estar al tanto de los cambios que se presentaban. Como una breve introducción a Perceptive Software debo mencionar que las instalaciones en Kansas tenían mucho de la cultura de bienestar hacia el empleado que hay en empresas como Google o Microsoft (en USA, claro está), es decir, había comida y bebida gratis disponible en todo momento, un gimnasio con duchas, cancha de dodgeball y mesa de ping pong en el sótano, los jueves había buffet temático e incluso había un tobogán desde el segundo piso a la planta baja. En una de las visitas tuve oportunidad de conocer en persona a Steve Wozniak, quien asistió a una de las reuniones semanales a dar un mensaje de apoyo y admiración a la compañía, Steve entró a la reunión montado en un segway, para darle un “Silicon Valley touch” a su presentación. Si, Perceptive Software era una empresa con ambiciones, fortalezas y una visión muy clara de lo que quería en el mercado de ECM.

En México mi lugar de trabajo estaba en las oficinas de Lexmark, en Santa Fe; en este lugar tuve mi primer contacto con los equipos multifuncionales y la tecnología de Administración de Servicios de Impresión, MPS por sus siglas en inglés; ambos elementos me parecieron valiosos y útiles para las organizaciones, los primeros por sus capacidades y funcionalidades y el segundo por el modelo tecnológico y económico que representaba. Los multifuncionales de Lexmark, desde entonces y hasta ahora, me parecen de lo mejor que existe en el mercado para agilizar los procesos de negocio en cualquier organización, más allá de conjuntar en un solo dispositivo la impresión, fotocopiado, digitalización de documentos e incluso envío de fax (si es que alguien aún lo hace) con el ahorro en espacio y costos que representa el sustituir dispositivos que solo hagan una de esas funciones, el hecho de que puedan crearse aplicaciones a la medida y que estén disponibles a través de su pantalla táctil ofrece posibilidades casi ilimitadas. Una aplicación que puede servir de ejemplo de la capacidad de estos equipos es la calificación de hojas de respuestas de exámenes. Primero se imprimen las hojas de respuestas del tipo de rellenar el círculo de la opción correcta, a, b, c o d, conocidas como alveolos, después de que las personas marcan las respuestas en las hojas se digitalizan en el mismo multifuncional y, por medio de una aplicación que aplica reconocimiento óptico de marcas (OMR), se califican las hojas de respuesta y se imprime la calificación. Esta capacidad me llevó a pensar que con la aplicación correcta un multifuncional puede convertirse en una estación de enrolamiento donde imprimes formatos predefinidos, envías por correo los documentos firmados, además de que algunos datos podrían extraerse por OMR, OCR o lectura de código de barras en el mismo equipo sin necesidad de una computadora, e incluso sin un ECM de por medio.

Para sacar provecho de la capacidad de los multifuncionales, Perceptive Software creó una aplicación que permitía hacer la clasificación de los documentos, capturar algunos datos de los mismos en la pantalla del multifuncional y enviarlos directamente al repositorio, iniciando incluso un flujo de trabajo si era necesario. Ya dentro de Perceptive Software era posible hacer cosas más interesantes con los documentos, como enviarlos al motor de captura inteligente de datos de Brainware Distiller para su clasificación más exacta y la extracción de datos, y, para poner la cereza al pastel, ¿qué tal si se lleva a cabo la consulta de los documentos desde aplicaciones como SAP, Oracle eBusiness Suite, legados o incluso aplicaciones de terminal por medio de un solo clic? Esto es posible en el cliente pesado de Perceptive Software sin necesidad de programar, instalar plugins o consumir servicios Webs; créanme, las demostraciones de esta funcionalidad eran para irse de espaldas de lo fácil y eficiente que era el proceso. Por decirlo de alguna forma los escenarios de aplicación eran (¿o serán aún?) ilimitados, ¿acaso no es la respuesta a cualquier proceso de enrolamiento, apertura de cuenta, credencialización o similar? ¿Por qué no se convirtió esta combinación de tecnologías en un caso de éxito más extenso, al menos no en Latinoamérica? Muchos factores deben explicarse para dar respuesta a esta pregunta.

En primer lugar, la vorágine de adquisiciones de compañías que se dio en este periodo de tiempo hicieron que los esfuerzos de integración se diversificaran, así como los esfuerzos de preventa: recién se había adquirido Pallas Athena un BPM holándes a finales de 2011, en marzo de 2012 se adquirió Isys, un motor de búsqueda australiano y Nolij, un ECM enfocado al sector de educación en USA; en enero de 2013 se adquirió Acuo, una plataforma para la administración de contenido especializado en el sector salud, con todas las particularidades que este sector requiere; en marzo de ese mismo año se adquirieron AccessVia y Twitstage, la primera era una solución de impresión para grandes cadenas departamentales y la segunda una plataforma de administración de video; en agosto de 2013 se adquirió Saperion un ECM/BPM muy completo y en octubre del mismo año Pacsgear, una solución de conectividad para equipos de imagenología médica y administración de registros del mismo sector. De al menos la mitad de estas compañías en algún momento estuve involucrado en una preventa, y en ese momento me di cuenta de la dificultad de interactuar con personal de compañías que están siendo adquiridas, que no saben que pueden o no hacer aún o que información pueden o no compartir, además de que varios estaban involucrados en procesos de reubicación y otros estaban en husos horarios diferentes. ¿Por qué preventas tan diversas? Bueno, en parte debo asumir la culpa, junto con el resto del equipo comercial, de una falta de foco, la otra parte está asociada a la estrategia de ventas que Lexmark, al menos en México tuvo en relación a su oferta de ECM. Hubo esfuerzos específicos por parte del personal de ventas que veían el potencial en el portafolio de software que se estaba generando, pero su cuota y sus objetivos siempre estuvieron puestos en la venta de los multifuncionales o de MPS; y no es que esto fuera malo, finalmente Lexmark en México tiene una presencia importante en varios sectores, el problema es que el foco en México no coincidía con lo que se veía en USA o en otros países de Latinoamérica. Ahora, los esfuerzos que se hacían en muchas ocasiones tenían poco impacto por la falta de capacidad para evaluar los requerimientos, la cuenta o la competencia. En más de una ocasión tuve que participar en preventas, para México y para Latinoamérica, donde las bases estaban claramente dirigidas a plataformas como Documentum o Filenet y el personal de ventas no podía creer que no se pudiera competir; en otras el requerimiento era algo que no se podía solucionar con una plataforma de ECM, pero las que verdaderamente eran frustrantes eran aquellas en las que con mínima información pedían una cotización de licenciamiento y servicios, del estilo de: “¿cuánto costaría digitalizar actas de nacimiento y extraer los datos?”, así, sin saber cuántas actas, en qué condiciones estaban, qué datos se debían extraer, cuántas personas consultarían las actas, etc., etc., etc.

Puede que esta falta de foco comercial fuera uno de las principales razones del fracaso, pero otra razón, fuerte también, es el exceso de foco comercial, como lo escribiré en la siguiente parte.

Sentimientos encontrados: Documentum (Parte II)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Documentum, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

En esta ocasión escribo acerca de dos productos de Documentum que tuvieron evoluciones diferentes, uno tuvo que rehacerse después de pasar por dos licenciamientos OEM y el otro fue una adquisición que nunca terminó de «integrarse».

Una de las características que más ayuda a los usuarios de plataformas de Administración de Documentos Electrónicos es la búsqueda por contenido: esa capacidad de ubicar dentro de un documento, una hoja de cálculo, una presentación o un simple archivo de texto una palabra o frase particular. En los primeros proyectos en que participé esta funcionalidad no se utilizó, debido a que los archivos que se administraban eran imágenes TIFF o archivos PDF con imagen, después supe que era parte del Content Server de manera nativa. Esta funcionalidad le dio un par de dolores de cabeza a Documentum interesantes: el primero fue cuando el motor interno que se utilizaba, Verity, pasó a propiedad de Autonomy (quien después fue adquirida por HP) y entonces el acceso al licenciamiento OEM se detuvo/deterioro/¿canceló? provocando que nuevos formatos que debieran indexarse no se agregaran. Para solucionar este problema Documentum cambió el motor interno por Fastsearch en la versión 5.3, lamentablemente poco duró el gusto: Microsoft compró a Fastsearch en 2008, y anunció que no extendería los contratos OEM. Ante este contratiempo, Documentum inició el desarrollo del producto xPlore; que en mi opinión, fue una de las mejores creaciones de la compañía. Basada en las  librerías opensource Lucene y la base de datos xHive (que fue una de las adquisiciones de EMC del 2007), este producto es flexible, escalable y bastante fácil de configurar. Una de las ventajas que tiene es que el esquema de seguridad se replica del repositorio, así los resultados de las búsquedas ya están filtrados de acuerdo a los permisos asignados a los documentos, por lo que no hay necesidad de procesamiento adicional. Por la arquitectura independiente es fácil  conectarse a otros repositorios o plataformas para indexar y atender búsquedas, como ApplicationXtender; no dudo que OpenText haga uso de esta capacidad para integrarlo con otros productos, aunque lo haga con otro nombre.

Un producto que siempre llevó una vida paralela, casi subterránea, dentro de Documentum fue eRoom. eRoom es una espacio colaborativo para la administración de proyectos muy fácil de usar y relativamente fácil de administrar desarrollado inicialmente en una arquitectura IIS-Windows-ASP, un mundo opuesto al J2EE de los módulos Web de Documentum. Desde su adquisición en 2002, eRoom convivió/compitió con al menos dos productos: iTeam y CenterStage. iTeam tenía al menos dos años en el mercado cuando eRoom se incorporó a la compañía, pero su funcionalidad era muy limitada comparada con éste; eRoom fue por mucho tiempo uno de los productos líderes en el mercado, prueba de ello es que en el 2005 la versión 7.2 obtuvo el premio a el mejor software colaborativo en el evento anual del AIIM, los distintos clientes lo reconocían y estaban al pendiente de su crecimiento dentro de Documentum.

Documentum por su parte tenía otros planes: en primer lugar trató de integrar eRoom con el Content Server para centralizar la administración de los documentos en una plataforma y dejar la funcionalidad colaborativa en la otra, el problema fue que, siendo productos en plataformas diferentes la integración dejó mucho que desear, además de que requería labores administrativas en una y otra. Entonces inició el desarrollo de una plataforma equivalente a eRoom sobre J2EE a la que llamó CenterStage, en su momento Documentum lo promocionó como la plataforma Web 2.0 de administración de contenido; este producto estaba totalmente integrado con el Content Server y tenía una interfaz más amigable (o menos repudiable) que Webtop. La labor de venta de este no fue sencilla, recuerdo claramente dos clientes cuya primera pregunta era: ¿tiene gráfico de Gantt para los planes de proyecto?, la respuesta era: no aún, pero está en desarrollo; entonces los clientes decían: regresen cuando lo tenga. Nunca regresamos, porque nunca lo tuvo.

La realidad le ganó la carrera a Documentum por volumen, en algo que seguramente sucede en empresas que usan Sharepoint hoy en día, eRoom es tan sencillo de usar que los usuarios creaban carpetas, subían documentos, creaban conversaciones, creaban «bases de datos», agregaban planes de proyectos, creaban notas y encuestas en grandes cantidades, tanto que en una entidad de gobierno llegaron crecer hasta ocupar cientos de gigabytes; Documentum no tuvo más remedio que detener el desarrollo de CenterStage y continuar el soporte de eRoom.

La última versión de la que tengo conocimiento que se liberó de eRoom fue la 7.5 en 2015, su soporte termina en 2019 y el soporte extendido en 2022, cuando OpenText anunció la compra de la división de Enterprise Content Division no se hizo mención del producto, tampoco en el Webinar de enero de 2018 donde se presentaron los planes y lanzamientos relacionados con Documentum. ¿Es el destino de eRoom desaparecer? Podría ser, aunque hoy en día hay aún muchos usuarios de esta plataforma y varios de ellos no son menores.  La ONU tiene un eRoom versión 7.4.4 funcionando y  no creo que sea pequeña; otras organizaciones existen con sitios similares (mscnedarcssl) y si bien una búsqueda en Google nos arroja varias herramientas para migrar sitios de eRoom a Sharepoint, no es una tarea menor. Sería interesante saber qué planes tiene OpenText para eRoom; tal vez alguien le hagan una oferta interesante y resurja de sus cenizas para tomar el lugar que alguna vez tuvo por encima de Sharepoint. O tal vez OpenText genere una estrategia comercial de sustitución por KineMatik, el cual afortunadamente si tiene gráfico de Gantt.

Sentimientos encontrados: Documentum (Parte I)

Por Omar Morales

Este texto no pretende relatar los distinto hitos en la existencia de Documentum, solo aquellos con los que tuve contacto directo y mi opinión al respecto, ¿crees que la historia fue diferente para ti?, comparte tu versión en los comentarios.

Hace 18 años participé en mi primer proyecto de ECM, que también fue el primero con Documentum, y la casualidad (o tal vez sea parte de la historia) me ha traído de vuelta a la misma institución, la misma área y la misma plataforma este año. Mucho podría escribir acerca de esta institución, pero ese no es el objetivo de este texto, lo que voy relatar hoy son los cambios que he visto en Documentum en estos 18 años.

En aquel marzo de 2000 Documentum era un sistema de administración de documentos electrónicos con una plataforma web básica llamada RightSite, un cliente web basado en Javascript llamado IntranetClient, un cliente de escritorio llamado Desktop y una suite enfocada al cumplimiento de legislación llamada Documentum Compliance Manager. A modo de referencia estos datos: Ernesto Zedillo aún era presidente de México, U2 aún no publicaba su último gran album “All that you can leave behind” y Blackberry con sus equipos monocromáticos dominaba el mercado de los smartphones.

Para alguien que venía de la administración de Novell Netware y su suite de correo Groupwise, así como para muchas personas que he conocido en estos 18 años, la administración de documentos electrónicos parecía una tarea menor y con poca utilidad en ese momento; sin embargo varias cosas en Documentum me parecieron interesantes, como la orientación a clasificar los documentos como objetos con clases y subclases, cada una con sus propiedades particulares, la capacidad de realizar consultas administrativas con sentencias SQL, los flujos de trabajo y los ciclos de vida, entre otras cosas. El objetivo de aquel proyecto, en aquel entonces y ahora, es la conversión de papel en documentos electrónicos por medio de la digitalización en escáneres de alto volumen, ese proceso también despertó mi interés: la forma en que debían prepararse los papeles, el ajuste que podía hacerse en la calidad de las imágenes, el reconocimiento óptico de caracteres, la captura de datos a partir de este reconocimiento, la operación de todo el proceso como tal de una línea de producción.

Durante el año que estuve en ese proyecto me quedó claro que ECM y Documentum eran una estrategia y un producto con mucho potencial, tanto que decidí seguir mi carrera tras ambos. Mis dos siguientes proyectos y varias horas destinadas a la preventa/demostración/evangelización fueron con Documentum; uno de ellos fue particularmente interesante porque fue de Web Content Management (WCM). En ese momento Documentum empezó a promover la visión de ECM como la administración de todo el contenido de una organización y la creación del mismo por medio del uso de XML, una visión avanzada y ambiciosa para la época. El paso de ser una plataforma de administración de documentos electrónicos a una plataforma de ECM tuvo que venir con la necesaria evolución de la plataforma Web de Javascript a J2EE y con la presentación de productos clave como WebPublisher y Site Caching Services, así como la capacidad de “ejecutar aplicaciones XML” (descomponer el archivo XML en varias partes y tomar información de ellas para capturar los metadatos) en archivos XML agregados al repositorio. El proyecto en el que participé buscaba administrar el contenido publicado al portal y a la intranet de una institución financiera, el proceso de administrar el contenido publicado al portal tuvo problemas de menores a complicados, pero salió adelante; la administración de la intranet fue otra cosa: la institución requería no sólo la administración del contenido, también la administración del portal como tal. El enfoque WCM de Documetum consistía en presentar una interfaz básica de captura a los usuarios finales y dejar que la combinación de XML y XSL generará la o las presentaciones necesarias: sitio Web, portal, sitio móvil, etc; después estas presentaciones se llevarían a los sitios Web por medio de los servicios de publicación (SCS). Este enfoque en un mundo en el que se ocupe HTML5 sería ideal, lamentablemente en esos días Flash era el rey, todas las empresas querían movimiento e interacción, además de que administrar contenido que debía presentarse en portales J2EE era relativamente fácil y, en otras herramientas, era posible controlar, monitorear y configurar, además del contenido que se publicaba, cosas tan básicas como una una encuesta en la página principal, administrar el acceso al portal o conocer la cantidad de usuarios y el contenido que consultaban. Algunas integraciones se dieron para completar esa funcionalidad requerida en los portales y sitios Web, pero no fueron suficientes para lograr la estabilidad y madurez de esa línea de productos. No participé en otro proyecto de WCM con Documentum, en octubre de 2015 Documentum, entonces ya parte de EMC, dio por terminado el soporte de WebPublisher, fue un final triste, pero no tanto como lo fue para el producto equivalente de Filenet, del cual también escribiré en un futuro.

Esta visión de controlar todo el contenido de una empresa en una sola plataforma por parte de EMC Documentum trajo al mercado la suite de productos llamada Media Asset Management (MAM), encabezada por el cliente Digital Asset Management (DAM); en un proyecto para una empresa de medios participé en la implementación de esta para facilitar el proceso de postproducción al integrar en un solo repositorio los documentos y videos transcodificados a baja resolución; la idea fue buena y sirvió como puerta de entrada a otros proyectos en aquella empresa, pero nos enfrentamos con una queja común, no solo a Documentum, sino a varias plataformas: la interfaz de usuario es horrible, no quiere decir que no sea funcional o que no sea rápida (que esto depende de otros factores), la queja era la distribución de los elementos, la combinación de colores y, particularmente para DAM, la “estética”. En este caso es importante señalar que la mayoría de los usuarios de esta suite de productos son personas con formación y experiencia en artes visuales, diseño gráfico, mercadotecnia, y pues están acostumbrados a interfaces estilo Mac, Adobe o Avid. DAM mejoró realmente hasta la versión 6.5 esta situación, cambiando la forma en que se presentaban las imágenes y los videos, así como la funcionalidad disponible para su modificación; lamentablemente no siguió la evolución, esa fue la última versión de esa interfaz y en este año termina su soporte. Hoy en día un partner de OpenText ofrece un cliente DAM basado en D2, el resto de los módulos de MAM los continúa desarrollando OpenText. Por el momento.

Flujos de trabajo, Flujos Editoriales, Automatización de Procesos; el qué, cómo, donde, cuando y con quién…

MEJORES PRACTICAS

Antes de ir al tema en cuestión, hablemos primero de las «Mejores o Buenas Prácticas»; primero que nada tenemos que definirlas, veamos esta sencilla definición: para un determinado contexto se realizan una serie de acciones bien definidas y documentadas que dan como resultado una buena calificación del servicio; y se espera que en contextos similares se obtengan también las buenas calificaciones del servicio. Un ejemplo práctico de que «las mejores prácticas» funcionan es la existencia de las Franquicias.

Se ha asociado que para ejecutar estas prácticas se ligan al uso de herramientas de TI (Tecnología de la Información), por lo que invariablemente pueden llegar a depender de la época, ola tecnológica, moda y hasta del impacto en la industria  por parte de algún o algunos fabricantes de TI.

ADMINISTRACION DE LOS PROCESOS DEL NEGOCIO

Dentro de lo que hemos comentado en los DOMINIOS DE LA TI, existe uno al cuál aspiran muchas organizaciones y que va ligado con el contexto de las mejores prácticas; el BPM (Administración de los Procesos de Negocio); ya que se maneja la idea de que podemos actuar en base a procesos definidos por las mejores prácticas y evolucionar de ser solamente funcional.

En las organizaciones se suelen mencionar flujos, procesos, procedimientos de manera indistinta; con base a la experiencia y conocimiento de cada persona, pero ya en la práctica y experiencia de años de expertos en el tema han venido haciendo algunas diferencias, sin ser necesariamente concluyentes ya que en TI todo evoluciona y cambia:

FLUJOS PROCESOS
Se orienta en la automatización de actividades colaborativas, cooperativas y de coordinación. Se orienta en actividades complejas de la organización que requieran estrictos controles, explotación de la información generada, integración entre diferentes sistemas y hasta manejo de indicadores (KPI)
Son básicamente acciones entre personas. Se controla algo que ya está en práctica y se busca la mejora continua. Son acciones entre personas, sistemas y externos. Permite la optimización y mejora continua.
En la práctica se hace un diagrama y se define la herramienta para automatizar y sólo se administra. En la práctica se diagrama, se modela, se simula, se lleva a producción y se puede monitorear.
Básicamente se involucran los usuarios y el implementador o administrador (TI). Se involucran varios perfiles: el usuario, el modelador, el analista o arquitecto de procesos, el analista financiero, el o los constructores (programadores) y el implementador y/o administrador.
En el diagrama se usan reglas de enrutamiento (revisado, autorizado, publicado, hasta algún valor de alguna variable o metadato con lógica básica). Aquí se utiliza inclusive un Dominio de la TI, BRMS Administrador de Reglas de Negocio. Se manejan conceptos como Tareas Humanas, Tareas Automáticas, Mediaciones, Integraciones, Conectores. Pueden haber tareas complejas de programación.
Requerimientos de infraestructura básico generalmente no muchos usuarios. Requerimientos fuertes de infraestructura y seguridad, servidores, controles de acceso, integraciones. Soporta gran cantidad de usuarios, fuerte procesamiento o grupos de usuarios.

Nos podemos dar cuenta que los Flujos de Trabajo es un nivel de entrada a buscar la automatización de los procesos de las organizaciones ya que no son complejas las implementaciones de los mismos, y se pueden utilizar herramientas de bajo costo con el límite que implica. En cambio para los Procesos de Negocio se requiere un mayor esfuerzo de la organización que se justifica por la complejidad del mismo, ya que se busca que cada rol involucrado haga la función que le corresponde:

– El usuario es el dueño del proceso, por lo que es importante que aprenda a diagramarlo y darle mantenimiento.

– El analista o arquitecto conoce ambos medios, el del usuario y el de sistemas, conoce de capacidades y necesidades y por lo tanto puede hacer diseños orientados a servicios, que es el nuevo paradigma para hacer mas con menos.

– Entre el analista y el usuario pueden hacer simulaciones para ver con precisión si su diseño es funcional o se deben hacer ajustes en el proceso, además el analista financiero se involucra para ver cuestiones de costos en el proceso y ver el retorno de la inversión (ROI).

– Una vez autorizado el proceso se somete a construcción, ya sea con implementadores y/o programadores, para pasar por los etapas de CMMI, Moprosoft, TMMI.

– Salida a Producción y Monitoreo por parte de los administradores. Recomendable tener ITIL en Producción.

TECNOLOGIA

Para configurar Flujos de Trabajo, ya lo indicamos es relativamente sencillo, configurar estados (aprobado, revisado, autorizado), configurar usuario, grupos, roles y su jerarquía y finalmente si la herramienta lo permite notificaciones o lógicas simples, como son fechas, días transcurridos y acciones. Los flujos editoriales son entre personas para crear, revisar y publicar contenidos al Web (WCM).

Para herramientas de automatización de Procesos de Negocio (BPM) lo primero que identificamos al existir varios roles es que, para cada rol, pueden llegar a existir herramientas particulares. La aplicación del usuario, del analista, de los constructores, de producción. Por los mismo lo primero en lo que se tuvieron que poner de acuerdo es que debe existir una NOTACION estándar entre estas herramientas, de ahí que en el mercado surgieron varios estándares, BPMN, XPDL y BPEL, en el apartado de DOMINIO DE BPM hablamos y desglosamos lo que significan estas notaciones. En este post no discutiremos sobre los estándares ya que lo que nos interesa es identificar mas bien cuando se usan flujos y cuando automatización de procesos.

Quiero ser un profesional de las TI, especializado en el dominio de ECM I

Ya que tocamos el tema de lo que un Profesional de  las TI debe hacer, además de tener un título profesional, ahora veamos que puede hacer un profesional de las TI para especializarse en el dominio de ECM. En primer lugar, ¿por qué especializarse en ECM? Bueno, según el reporte Latin America Semiannual Content Management
Applications Tracker publicado por IDC el mercado de ECM en México en el 2012 representó ingresos por un total de 26 millones de USD, que es 15% mayor al total del 2011; estas cifras en términos de empleo y puestos disponibles pueden corroborarse al buscar en cualquier bolsa de trabajo en línea por las palabras clave «Documentum», «FileNet», «SharePoint», «Alfresco» o «WebCenter», que corresponden a los nombres de los productos de los competidores principales en este segmento. Si bien es cierto que la cantidad de plazas disponibles no se compara con los resultados arrojados por una búsqueda con palabras clave como «Java», «Oracle» o «Unix», es importante señalar que el dominio de ECM, así como el de ERP o CRM, es un dominio especializado que tiene su terminología, mejores prácticas y roles específicos donde la experiencia y la especialización son bien remunerados.

Ahora, ¿qué es ECM? Bueno, que mejor forma de responder a esa pregunta que utilizando la definición de la Association for Information and Image Management (AIIM), que es el organismo que agrupa a 169 proveedores de la industria, incluyendo los principales líderes de reportes como el cuadrante mágico de Gartner o la ola de Forrester: Enterprise Content Management (ECM) son las estrategias, métodos y herramientas utilizados para capturar, administrar, almacenar, preservar y distribuir contenido y documentos relacionados con los procesos de negocio de las compañías y organizaciones. Estas herramientas y estrategias permiten la administración de la información no estructurada, donde quiera que esta exista (traducción cortesía de los autores). Y después de la definición empecemos con los recursos que les permitirán ser especialistas en este dominio.

Recursos para especializarse en ECM

Antes de iniciar tenemos que hacer dos consideraciones, la primera es que todos los recursos que recomendaremos serán de acceso gratuito, muy útiles, pero con limitaciones respecto a la capacitación formal que ofrece alguno de los proveedores del mercado (tal vez con excepción de Microsoft), la segunda es que la mayoría de los recursos, está en inglés, por lo que será necesario conocimiento de este idioma para sacar provecho de ellos. Hechas la consideraciones habrá que iniciar dominando los términos y prácticas principales, y la mejor forma de hacer esto es por medio del material que el AIIM a puesto a disposición como preparación para convertirse en Certified Information Professional, este material consiste en una serie de videos que abordan de manera introductoria los temas del acceso, uso, captura, administración, colaboración, distribución, aseguramiento, preservación, arquitectura, sistemas, planeación  e implementación de la información no estructurada. Una vez terminada esta serie de videos es posible presentar el examen correspondiente, el cual tiene un costo de aproximadamente USD $265; además de esta certificación el AIIM cuenta también con certificaciones en los dominios de ECM, BPM y Taxonomía y metadata, entre otros.

Una vez que tenemos los conceptos básicos vamos a los recursos por proveedor:

  • Microsoft pone a disposición de manera gratuita la Microsoft Virtual Academy (MVA), en donde puedes encontrar cursos y sesiones en vivo o grabadas organizadas por tema, como desarrollo de aplicaciones, virtualización, administración y seguridad, Business Inteligence, o por producto, como los relacionados a Windows, SQL Server o Visual Studio. Respecto al dominio de ECM hay cursos de SharePoint version 2010 y 2013, así como sesiones grabadas acerca de los procesos de condiguración, desarrollo, migración y actualización. Además de la MVA está el portal Technet, el cual es un punto de entrada a la documentación de los productos de Microsoft, descarga de software para evaluación, laboratorios virtuales, blogs, foros, Wikis e eBooks; es en más de un sentido la fuente de información correcta para resolver dudas o ampliar conocimiento, no solo en el dominio de ECM, si no en todos los productos de este compañía.
  • IBM también pone a disposición de todo el mundo de manera gratuita la documentación de todos sus productos, incluyendo aquellos que pertenecen al dominio de ECM, su portal de soporte sin necesidad de registrarse y en distintos idiomas como español, portugués y, desde luego, en inglés. Un recurso más relacionado a la documentación son los Redbooks, que son publicaciones gratuitas y extensas acerca de alguno de los productos o prácticas de IBM y que abordan a gran detalle su arquitectura, funcionalidad y mejores prácticas de implantación, como el de IBM FileNet Conten Manager. Finalmente está la comunidad virtual IBM developerWorks, donde hay foros, blogs, wikis e información diversa publicada y compartida por distintos profesionales, tanto externos como de IBM; claro está existe una sección destinada al dominio de ECM.

En una entrega posterior abordaremos los recursos de otras empresas como EMC, Alfresco y Perceptive Software, mientras tanto, ¿qué opinan de estos recursos?  ¿son suficientes? ¿conocen algún otro relacionado con el tema? Esperamos sus comentarios.

Los usuarios solo quieren escanear

Cada día me parece más evidente que el mercado de ECM en México tiene gran potencial, en tan solo una semana he escuchado de tres fuentes distintas que «solo se necesita escanear los documentos». Un asociado, un cliente potencial y un conocido que trabaja en una institución de gobierno utilizaron casi las mismas palabras: «los usuarios/empleados/clientes solo quieren escaner sus documentos para consultarlos después». ¿cómo los van a consultar? ¿cómo van a controlar quién consulta qué documentos? ¿de qué forma deben organizarse los documentos para agilizar su consulta? ¿por qué los necesitan consultar? ¿cuál es el origen de esos documentos? ¿a qué procesos le dan soporte? Esas son preguntas que no le preocupan a los usuarios/empleados/clientes.
Detrás de esa necesidad de escaneo y consulta existen procesos manuales, procesos que se llevan a cabo en sistemas transaccionales o procesos automatizados que pueden ser beneficiados por el uso de una plataforma de ECM; y la consulta de los documentos per se es una actividad que requiere la clasificación, protección y facilidad de uso que un usuario no puede obtener si se escanean los documentos a un directorio compartido, a un CD o, incluso, a una BD; aún y cuando se pueda agregar un motor de indexación y búsqueda.
Y si pensábamos que el advenimiento de la oficina sin papel está cada día más cerca y que el escaneo de los documentos es un actividad que a mediano plazo no será necesaria, entonces habría que revisar el reporte de AIIM The Paper Free Office – dream or reality? (con la suscripción gratuita es posible consultar el documento) para encontrar varios puntos interesantes:

  1. El descenso en el uso del papel solo se ha dado en las grandes corporaciones
  2. Muchas empresas escanean documentos solo para su consulta
  3. Muchos documentos que se reciben en electrónico son impresos para participar en los procesos en que son requeridos (¡¿!?)

El estudio se llevó a cabo entre Noviembre de 2011 y Enero de 2012 en empresas de todo el mundo, aunque el 56% están en USA y solamente el 2% se ubican en Latinoamérica; con estos el escenario en México podría ubicarse en un manejo mayor del papel.
En este estudio hay otros datos interesantes, como los principales elementos de ROI de un proyecto de escaneo o la adopción de escaneo desde dispositivos móviles, ¿qué tal si agregas en los comentarios lo que opinas de estos temas?

Etiquetado ,

Sustituciones de plataforma

La semana pasada estuve platicando con el director de una empresa que está evaluando la posibilidad de establecer una relación de partner con Perceptive Software y me comentaba que el mercado de ECM en México estaba casi cerrado, que las grandes empresas e instituciones de gobierno ya habían hecho alguna decisión acerca del fabricante con el cual implantaron, implantan o implantarán su estrategia de ECM; yo difiero con él por varias razones.
Una de estas razones es por lo que he visto en las áreas de Recursos Humanos, Legal y Finanzas en varias empresas, ya sea grandes, muy grandes e incluso corporativos transnacionales, en estas áreas los procesos aún están soportados por el uso del papel, el correo electrónico y los directorios compartidos, si esta es la situación en las grandes empresas imaginen las medianas o las instituciones de gobierno.
Otra razón es que el mercado de ECM no es solo la implantación de una tecnología a partir de cero, también involucra la sustitución de una plataforma instalada. Yo participé en al menos dos proyectos de sustitución de tecnologías existentes con la implantación de Documentum así que es algo que se puede dar y se da regularmente; pero no solo es mi opinión. En el 2011 Oracle lanzó una campaña de sustitución de Documentum bastante agresiva, a pesar de que hay una relación de partners entre Oracle y EMC2 (debido a la base de datos de uno y de los dispositivos de almacenamiento del otro) al parecer la guerra está declarada.
¿Ha tenido éxito esta campaña? Es difícil decirlo, sin embargo, en el reporte financiero del primer trimerstre  del 2012 hay una reducción en los ingresos por producto para EMC2 en el área de Information Intelligence Group del 13% (revisar la página 10) comparado con el mismo trimestre del año pasado, podría ser coincidencia, podría ser el principio del cambio de liderazgo en el mercado. ¿Quién más podría estar perdiendo presencia en el mercado de ECM? Podría ser IBM, ya que a pesar de reportar un aumento en sus ingresos en el primer trimestre del 2012 de un 7% comparados con el mismo trimestre del año pasado en el área de Information Management, hay que tomar en cuenta que en esta área están incluidos WebSphere, Tivoli, Lotus y Rational junto a FileNet y Content Manager.
Es muy difícil saber cómo está conformado el mercado de ECM en México o si se está moviendo en la misma dirección, aun que es claro que mucho de lo que sucede en el mismo sector en USA impacta en nuestro país.

Etiquetado , , ,

Adquisiciones e integraciones

Cuando EMC2 compró a Doumentum hace 9 años creí que una excelente mezcla podría darse entre dos tecnologías exitosas de manera independiente y complementarias en el papel: por un lado la administración de documentos y contenido y por otro lado dispositivos de almacenamiento. Antes de esta adquisición varios clientes, si no todos, me preguntaban si Documentum tenía la capacidad de mover documentos que no se consultaran regularmente a medios de almacenamiento más baratos aunque de más lento acceso y si podía también traerlos de regreso a los medios de almacenamiento originales, con acceso más rápido, en caso de ser necesario. Después de la adquisición, y hasta la fecha, no he visto una integración real entre los dispositivos de almacenamiento de EMC2 y los módulos de Documenum; los que hay en la versión 6.x Content Storage Services y Content Services for EMC Centera solo permiten el movimiento en un solo sentido y no toman ventaja de capacidades de caja de productos como Replistore; por otro lado, Replistore ofrece la capacidad de mover archivos entre distintos tipos de almacenamiento pero su configuración se realiza fuera de Documentum.

Desde mi punto de vista el módulo de Documentum desde el que se configura la clasificación, seguridad y auditoría de los documentos es el punto ideal para definir las políticas de movimiento de ida y vuelta entre los distintos tipos de almacenamiento; sin embargo esto no sucede así y el concepto de Information Lifecycle Management que integra a Documentum y los dispositivos de almacenamiento de EMC2 solo se queda a nivel de presentaciones y diapositivas; la estrategia actual es dejar que la capa de almacenamiento se encargue del manejo de los archivos para su consulta eficiente.

Una historia distinta es la adquisición de Captiva por EMC2, mi percepción es que los productos del catálogo de Captiva han mejorado de manera importante (sobre todo en la última versión) debido a muchas razones, pero en el tema específico de integración esta funcionalidad estaba presente con Documentum desde antes de que formaran parte del mismo grupo, e incluso con varias plataformas diferentes que compiten directamente con este.

Una estrategia también exitosa en la integración de dos compañías que están en el mundo del hardware y el software está en el proceso de adquisición de Perceptive Software por parte de Lexmark. En este proceso los equipos multifuncionales se han convertido en el punto de integración de dos mundos, por un lado la capacidad de consolidar las tareas diarias de impresión, fotocopiado y digitalización en uno o varios equipos que son fáciles de usar,  administrar y, de manera interesante, configurar, y por el otro lado una plataforma que permite la clasificación, búsqueda y consulta segura de documentos, la ejecución de distintos procesos basados en estos y la integración con cualquier aplicación para su consulta en el contexto adecuado. Con la gran capacidad de configuración con que cuentan los multifuncionales es posible la digitalización de los documentos, la captura de datos que los identifiquen, su clasificación de acuerdo a su función y su adición en procesos de negocio.

La integración de las distintas capacidades que los productos de ambas empresas, Lexmark y Perceptive Software, proveen se está convirtiendo en un tema atractivo para los actuales clientes de cada una y en un diferenciador cuando se deben abordar proyectos complejos, como la digitalización de documentos en oficinas regionales que deben ser consultados en oficinas centrales durante procesos de aprobación y revisión, si las oficinas regionales pueden digitalizar e iniciar los procesos con los mismos equipos con que imprimen sin necesidad de destinar una computadora solo para estas actividades… Bueno, pueden imaginar la eficiencia y el ahorro que se pueden conseguir.

Etiquetado , , , ,