Mostrando las entradas con la etiqueta Datos. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Datos. Mostrar todas las entradas

sábado, 26 de agosto de 2017




México, Ciudad de México, 25 de agosto de 2017

La contabilidad de usuarios que realizan recargas para hacer uso de los servicios móviles de llamadas, envío de mensajes cortos (SMS) y/o la descarga de datos asciende a 92.9 millones, esto es 82.4% del total de líneas celulares en México, al segundo trimestre de 2017.
Estos usuarios históricamente contaban con menores beneficios que aquellos de postpago, al contar, en muchas ocasiones, con tarifas más altas y una menor canasta de servicios. No obstante, desde hace un par de años, los operadores móviles ajustaron sus esquemas de recarga, dejando atrás el cobro individual por cada servicio, para pasar a uno de paquetes que incluyen servicios ilimitados de voz y mensajes cortos (como en el caso de postpago), así como un menor precio en la contratación de datos móviles y/o navegación ilimitada en aplicaciones de redes sociales y mensajería instantánea por un tiempo definido.
A partir de ello, se registró un cambio en la dinámica de recargas y consumo de servicios por parte de los usuarios. Por ejemplo, al incentivar a los usuarios a destinar mayores recursos en la recarga para obtener beneficios en torno a la transmisión de datos móviles por un mayor plazo. A su vez, se tradujo en una menor frecuencia de recarga, tal que la razón del segundo trimestre de 2016 (1.9 veces al mes) es significativamente menor (2.2 veces al mes) frente al mismo periodo del año anterior.

Frecuencia Promedio de Recarga Mensual (Recargas por Mes)
Fuente: The Competitive Intelligence Unit

No obstante, en periodos recientes se registra una nueva tendencia en la dinámica de recarga, causada por un repunte en la frecuencia promedio de recarga y esta a su vez, atribuible al recorte del plazo de vigencia de los paquetes de prepago, así como a la reducción del número de MB de navegación por internet y en apps de redes sociales y mensajería instantánea. Esto último, resultado de la nivelación de precios y paquetes tarifarios, ante la actual dinámica competitiva y de consumo de servicios.
Estas tendencias referidas, a saber: un mayor monto promedio de recarga, el aumento en la frecuencia de la misma, aunado a la estabilización de precios y el creciente consumo de servicios móviles, traerán consigo un repunte en los ingresos móviles, especialmente del segmento de prepago, revirtiendo la tendencia previa a la baja derivada de la trayectoria descendente de tarifas.

Nueva Dinámica de Recargas Móviles

Read More

martes, 25 de julio de 2017


* Los desafíos que presenta la creciente demanda de ancho de banda plantean una estrategia de Migración de Alta Velocidad.



Con el tráfico interno de los Centros de Datos en espera de crecer hasta tres veces durante los próximos cinco años, y la creciente penetración de la Internet de las Cosas (IoT), el ancho de banda del centro de datos corre el riesgo de ser sobrecargado en un futuro cercano(1). De igual manera, se prevé que para 2020 la presencia de los dispositivos IoT llegue a los 30 billones de dólares(2), lo que refuerza el hecho de que la tecnología se basa en sí misma, por lo que su crecimiento será casi siempre exponencial, representando mayores retos para los administradores y operadores.

Hay que decirlo, los administradores de los Centros de Datos requieren adaptarse a desafíos bastante complicados: aplicaciones que exigen velocidades más altas y rendimiento de latencia ultra baja; aumentando las densidades que pueden soportar las redes ‘leaf’ y ‘spine’”, menciona Ehab Kanary, Director del Departamento de Enterprise en Medio Oriente y África en CommScope. “Al mismo tiempo, deben encontrar una forma de mejorar la disponibilidad de la red mientras se reducen costos a través del tablero, por lo que migrar a más altas velocidades se presenta como una necesidad inevitable”.      
Para muchos administradores de Centros de Datos, la respuesta radica en migrar su infraestructura, ya sea con una estrategia de restructuración integral rápida, o bien, con una lenta que se vaya adaptando al tiempo para soportar los nuevos requisitos de velocidad, latencia y densidad de puertos. Sin embargo, esto no es necesario, ni aplica de la misma forma para todos los Centros de Datos.
“Por un lado, no se puede ignorar el hecho de que las tendencias actuales y futuras de uso de datos son alarmantemente altas y no se espera que se estabilicen en el futuro; por eso la Migración de Alta Velocidad no se trata de un "si" sino de "cuándo". Por otro lado, todos los centros de datos tienen un conjunto muy singular de requisitos de negocio, expectativas de las partes interesadas y consideraciones técnicas”, explica Ehab Kanary.
De esta manera, la migración de la infraestructura de red es tan solo cuestión de tiempo, por ello para el Director del Departamento de Enterprise en Medio Oriente y África en CommScope, existen indicadores que deben considerarse desde ahora:
  • Prestar atención a los estándares. Uno de los requisitos para proponer el desarrollo de una nueva norma es demostrar su necesidad y viabilidad. Organismos como IEEE, TIA e ISO solo iniciarán el trabajo sobre un estándar propuesto si hay necesidad en el mercado.
  • Conocer su negocio. Los Centros de Datos existen por una razón. Cada instalación juega un papel en la organización, por lo que resulta primordial entender el grado en que la organización confía su trabajo al Centro de Datos. Según un estudio de la firma de analistas KPMG, donde analizaron las decisiones de inversión de los gerentes en más de 1.000 empresas, reveló que el instinto tendía a gestionar más decisiones que datos(3).
  • Tener claras las consecuencias de conservar el estado actual de la infraestructura de red. Si considera retrasar su migración, esa requiere ser una decisión consciente. Las nuevas aplicaciones o cambios repentinos en la dinámica del mercado pueden aumentar los requisitos de ancho de banda de manera inesperada. A medida que crecen las demandas de los Centros de Datos debe preguntarse ¿cuál es el efecto en su infraestructura y cómo afectará la capacidad de administración y el tiempo de inactividad potencial?
“Al final el Centro de Datos existe para servir a un rol particular fundamental, por lo que la migración a velocidades más altas es un paso inevitable. Para determinar si es el momento adecuado para la migración, los operadores requieren responder si su capa física es lo que les detiene para los cambios que el futuro presenta. Tomarse el tiempo para analizar y elaborar estrategias es el primer paso para estar preparado para la Migración de Alta Velocidad”, concluyó Ehab Kanary, Director del Departamento de Enterprise en Medio Oriente y África en CommScope.

Migración de infraestructura: ¿si no es ahora, cuándo?

Read More

martes, 18 de julio de 2017

  • Muchas veces existen imprevistos que afectan la infraestructura de red cuya solución representa desafíos para los operadores y administradores.

La demanda de transmisión de datos y el crecimiento del ancho de banda actual han ocasionado que muchas veces las conexiones de red de fibra (FTTH) se dañen, lo que provoca que deban ser reemplazadas o reparadas, algo que podría resultar costoso si no se consideran todos los factores involucrados. Sin embargo, aun cuando las soluciones planteadas y el proyecto de adecuación sea el indicado, existen situaciones o problemas inesperados que plantean grandes retos, para los cuales los administradores y operadores deben estar preparados.
Muchas veces los requerimientos de red ocasionan que los operadores deban adecuar la infraestructura existente para hacer frente a nuevos desafíos, pero son varios los factores que pueden causar un daño a las conexiones. Esto, además de ocasionar -en muchos de los casos- grandes pérdidas o retrasos en la entrega, ha obligado a los administradores a ser creativos e innovar en soluciones que, de otra forma, quizá nunca se hubieran planteado.
“Son diversos los factores, tanto ambientales como humanos, que pueden llegar a provocar estragos en la infraestructura, erosionando las conexiones”, mencionó Yves Petit, VP de Soluciones Activas en el área de Connectivity Solutions de CommScope. “Por ejemplo, en la cercanía al mar, un inconveniente es el agua salada, cuyas partículas pueden causar daños en los distribuidores de fibra (FDH) o en las terminales de servicio multipuerto (MST) de un vecindario”.
Pero los factores ambientales no son los únicos que se presentan como retos para mantener la conectividad de la fibra eficiente. La implementación de FTTH en áreas urbanas y suburbanas alrededor del mundo también ha representado grandes retos, inclusive cuando ya se tiene una infraestructura previa sobre la cual trabajar.
La reutilización de alcantarillado, conductos, puertos e infraestructura existente, aunque puede ayudar a acelerar el despliegue de nuevas redes de FTTH y mantener bajos los costos, algunas veces no ofrece las soluciones necesarias para cumplir con los requerimientos de la tecnología actual, ¿qué pasa si la solución que se diseña originalmente para el proyecto resulta no ser la adecuada para la infraestructura existente? ¿Qué ocurre si el espacio es de difícil acceso para implementar el plan, o si la infraestructura implementada resulta estar en peor estado del pensado inicialmente?
Por este motivo planificar infraestructuras, con base en ingeniería sólida y pruebas rigurosas preparadas para imprevistos, es crucial para mantener la eficiencia de la conectividad reforzada. Con esto se consigue lograr una previsión contra factores externos, como el medio ambiente, o algún inconveniente provocado por situaciones humanas que amenacen con detener un proyecto futuro.
“En ocasiones el estado físico de la infraestructura nos obliga a innovar y crear nuevas soluciones que consigan adaptarse a situaciones fuera de lo planeado. En CommScope estamos comprometidos con la previsión y longevidad, por ello establecemos altos estándares y somos exigentes con ellos. Al momento de diseñar nuestros productos, tomamos nuestra experiencia por décadas en solucionespara planta externa, y la sumamos a nuestro conocimiento global. Con pruebas exhaustivas garantizamos su calidad, consiguiendo que estas puedan resistir y durar a lo largo del tiempo”, concluyó Yves Petit, VP de Soluciones Activas en el área de Connectivity Solutions de CommScope.

¿Cómo enfrentar imprevistos en un proyecto de infraestructura de red?

Read More

sábado, 22 de abril de 2017

 
  • Analistas prestigiados, especialistas en la operación de Mega Datacenters y en innovación TI ofrecerán magnas conferencias.
  • En este marco ICREA entregará reconocimientos a los Centros de Datos que han sido homologados con la NORMA ICREA.
  • Es el 12° Congreso Internacional de Infraestructura TI (Expo Data Center 2017).
  • La cita es el 16 y 17 de mayo de 2017 en el WTC, Ciudad de México.

Las tendencias en México en los Centros de Procesamiento de Cómputo (CPDs). La transformación de  Centro de Datos altamente contaminantes en unos que funcionen con base en tecnologías limpias, ¿cuánto cuesta, cuál es el ahorro y para qué sirve certificarse con el Sello Verde de ICREA? ¿Cómo obtener la gobernabilidad en los CPDs? Los detalles para gestionar la seguridad física en los Datacenters: estos y muchos más temas serán abordados durante el 12° Congreso Internacional de Infraestructura TI. "Especialistas de diversos rubros ofrecerán conferencias entorno a la gestión de los CPDs. Habrá conferencias de analistas renombrados (Select), testimonios de usuarios de grandes Centros de Datos (Axtel), experiencia en universidades (UNAM), empresas editoriales, regulación (NORMA ICREA 2017) y fabricantes, así como gurús de talla internacional (Schneider - Electric, Hubbell, Vertiv, entre otros )", señaló el Ing. Eduardo Rocha, Presidente Internacional de ICREA (International Computer Room Experts Association).
 
En suma, el programa de conferencias del 12° Congreso Internacional de Infraestructura TI, que tendrá lugar el 16 y 17 de mayo de 2017, en el WTC Ciudad de México, se compondrá de más de 11 conferencias y una mesa redonda en donde estará implícito el conocimiento tecnológico: con temas como implementación, transformación digital, sistemas de respaldo y energía, claves para la operación continua,  selección de arquitectura, niveles de alta disponibilidad, estandarización, certificaciones y evolución tecnológica, entre muchos más temas. "En este marco llevaremos a cabo la ceremonia de reconocimientos que entrega ICREA a los Datacenters que se certificaron con nuestra norma en el periodo 2016-2017. Será una fiesta y la cereza del pastel del 12° Congreso Internacional de Infraestructura TI y Expo Data Center 2017. Reconoceremos a los operadores de los Centros de Datos más importantes tanto en México como en la región", sostuvo el Ing. Eduardo Rocha.
 
Cabe aclarar que el 12° Congreso Internacional de Infraestructura TI está destinado para directores generales, ingenieros, proyectistas, consultores, directores de sistemas, consultores de centros de cómputos, integradores de sistemas, diseñadores, instaladores, investigadores, innovadores tecnológicos, entre muchos más.

Transformación y gobernabilidad en Centros de Datos, temas centrales del 12° Congreso Internacional de Infraestructura TI

Read More

jueves, 6 de abril de 2017

  • Los cibercriminales empiezan a recoger datos no estructurados; el spam se dispara un 400%; y el ransomware continua extendiéndose.
Ciudad de México - 04 abr 2017: IBM Security dio a conocer los resultados de su informe "2017 IBM X-Force Threat Intelligence Index", cuyas conclusiones revelan que el número de registros comprometidos se ha incrementado un 566% en 2016, pasando de 600 millones a más de 4.000 millones. Estas filtraciones incluyen datos en los que los ciberdelincuentes tradicionalmente han puesto foco como tarjetas de crédito, contraseñas e información personal médica; sin embargo se hace notar un cambio en las estrategias de los ciberdelincuentes. En 2016, numerosas brechas de seguridad estaban relacionadas con datos no estructurados como archivos de email, documentos empresariales, de propiedad intelectual y códigos fuente.
"IBM X-Force Threat Intelligence Index" ha monitorizado durante 2016 a más de 8.000 clientes de seguridad en 100 países así como los datos derivados de activos no pertenecientes a los clientes como sensores de spam y honeynets (un tipo de sistemas de detección de intrusos). IBM X-Force pone trampas en redes de todo el mundo y monitoriza más de 8 millones de ataques de spam y phishing al día, a la vez que analiza más de 37 mil millones de páginas web e imágenes.
Según otro informe del 2016, el método principal de ransomware se realiza vía archivos adjuntos maliciosos en correos spam. Esto ha generado un incremento del 400%  en spam cada año en los últimos años con aproximadamente un 44% de spam conteniendo archivos maliciosos.
El sector financiero vuelve a ser centro de ciberataques
En 2015, el sector sanitario fue el más atacado, mientras que los servicios financieros estaban en tercer lugar. Sin embargo, en 2016 los ciberdelincuentes han vuelto a centrarse en el sector financiero. A pesar de ser el sector que más ciberataques ha recibido el año pasado, los datos del informe de revelan que fue el tercero en cuanto a registros comprometidos. Este bajo éxito -a pesar del alto volumen de ataques- indica que la inversión continuada en prácticas de seguridad ha ayudado a proteger a las instituciones financieras.
La industria sanitaria continúa siendo amenazada por un alto número de incidentes, a pesar de que los atacantes se centraron en objetivos más pequeños, por lo que se ha reducido el número de informes filtrados. En 2016, solo 12 millones de registros fueron comprometidos en este sector, frente a los 100 millones de 2015, lo que supone un descenso del 88%.
Las empresas del sector de la información y comunicación e instituciones gubernamentales sufrieron el mayor número de incidentes y registros atacados en 2016 (3.400 millones en el primer caso y 398 millones de registros filtrados en el caso de instituciones gubernamentales).
Buenas noticias para las estrategias defensivas
En 2016, la media de eventos de seguridad en clientes monitorizados por IBM era de más de 54 millones, un 3% más que en 2015. A medida que los sistemas de seguridad estén cada vez más sintonizados e integrados y van creciendo tecnologías innovadoras como los sistemas cognitivos el número de incidentes por organización bajará. De hecho el número de incidentes bajó un 48% en 2016.

IBM X-Force revela récord histórico de datos filtrados y vulnerabilidades en 2016

Read More

jueves, 23 de febrero de 2017



 
 
  • CommScope estará presente en el Congreso BICSI CALA en Perú, con la ponencia “¿Cómo definir la infraestructura de mi Centro de Datos?”, impartida por Sebastián E. Mediavilla, Field Application Engineer para el Cono Sur.
 
 
En la actualidad el papel de los Centros de Datos es fundamental para las organizaciones. Con el paso de los años estos centros se han convertido en el núcleo de prácticamente todas las actividades de una empresa. Su óptimo funcionamiento es indispensable para satisfacer todas las necesidades de conectividad y transmisión de datos, por lo que contar con la infraestructura de red adecuada, acorde a los requerimientos actuales y futuros de cada negocio, será clave al momento de definir qué tipo de Centro de Datos será el correcto.
“Esta es una época de grandes cambios para los Centros de Datos. Es muy importante que los responsables tengan muy claro los aspectos a considerar cuando elijan su infraestructura de red, y analicen que éstos están asociados a la capacidad que deberá tener la infraestructura para dar soporte tanto a las necesidades de actuales, como a las futuras”, apuntó Sebastián E. Mediavilla, Field Application Engineer para el Cono Sur de CommScope, quien estará brindando la charla “¿Cómo definir la infraestructura de mi Centro de Datos?” el próximo 3 de marzo en el Congreso BICSI CALA Perú 2017.
Con los avances tecnológicos de las últimas décadas, el desarrollo de nuevos dispositivos, mayores velocidades de transmisión y exigencias de conectividad, las tendencias sobre el diseño de la infraestructura del Data Center también han evolucionado. Para Sebastián Mediavilla existen tres tendencias clave con un impacto directo sobre la infraestructura y su funcionamiento:
- La explosión continua e ininterrumpida del ancho de banda, con la expectativa de que el tráfico crezca y se multiplique hacia el final de la década.
- El cambio por las computadoras en la nube (cloud computing), ya sea una nube pública o privada.
- La Internet de las Cosas, que impulsará cantidades siderales de datos al Centro de Datos.
“Para poner en contexto estas tendencias podemos dar algunas cifras, por ejemplo, se espera que las velocidades en banda ancha se duplicarán para el año 2020, pasando de 24Mbps en 2015 a 48Mbps; mientras que los datos móviles se incrementaran hasta ocho veces, e incluso, se espera que el tráfico proveniente de dispositivos inalámbricos y móviles superará al de dispositivos cableados”, agregó el Field Application Engineer de CommScope.
Qué es mejor para mi Centro de Datos ¿fibra o cobre?
Al igual que con otros aspectos de la infraestructura, la decisión acerca del tipo de cableado a instalar en un Centro de Datos es crucial para su eficiente desempeño. A este respecto, la principal cuestión a considerar será la capacidad de transmisión de cada medio, así como las distancias asociadas a ellas y las necesidades de cada negocio.
Al respecto, Sebastián Mediavilla mencionó: “En los últimos años los Centros de Datos Hyperscale, como los de Facebook, Google o Amazon, han ido migrando de arquitecturas tradicionales a tipo Leaf-Spine en busca de disminuir latencias y aumentar la virtualización de contenidos y recursos compartidos. Este nuevo tipo de arquitecturas con interconexión total y prevalencia de tráfico de datos horizontal (“Este a Oeste”) por sobre el tráfico vertical (“Norte a Sur”), sumado al incremento de velocidades hacen que la infraestructura de nuestro Centro de Datos esté necesariamente basada en fibra óptica, obteniendo la mejor eficiencia con fibra óptica multimodo OM5. Todos estos temas los estaremos abordando mucho más a detalle durante el Congreso BICSI en Perú”.
En general la decisión respecto al tipo de infraestructura que se debe elegir para un Centro de Datos depende de los servicios y aplicativos (contenidos) que se estén soportando, es decir, qué volumen de datos, velocidades y latencias están involucrados en los mismos. En la actualidad, por optimización de costos de interfaces y de máximas distancias asociadas existentes en el interior de los Centros de Datos (usualmente menor a 100m), resulta conveniente la implementación de fibra óptica multimodo. Adicionalmente, si la fibra multimodo es preconectorizada con conectores MPO, podremos realizar transmisiones paralelas, alcanzando velocidades superiores a los 40GbE, reduciendo así el impacto en la infraestructura por la migración de velocidades al mínimo, y disminuyendo también gastos de operación e implementación.

¿Cómo definir la infraestructura de mi Centro de Datos?

Read More

viernes, 3 de febrero de 2017


• IBM impulsa la transformación cognitiva con servidores y sistemas de almacenamiento hechos para gestionar grandes volúmenes de datos y manejar dispositivos móviles.
• Los directores de TI deben liderar la transformación digital dominando la nube híbrida en la nueva era cognitiva.

Ciudad de México - 02 feb 2017: La era cognitiva está sobre nosotros y para competir, las compañías deben tener una infraestructura lo suficientemente robusta para poder habilitar la innovación en sus centros de negocio. De esta manera, el Chief Information Officer (CIO) puede volverse catalizador y estratega del éxito empresarial gracias al desarrollo de nuevas formas de hacer negocios.
El escenario al que se enfrentan los directores de TI es de total disrupción, en donde 90% de los datos han sido creados en los últimos dos años, 100% de las aplicaciones de negocio están migrando a ser nativas móviles y para 2020 habrá cerca de 75 mil millones de dispositivos conectados.
Esta explosión de datos requiere de infraestructura capaz de sintetizar cantidades masivas de información extraídas de un ecosistema tecnológico en expansión, para la toma de decisiones más oportuna y el aprovechamiento de nuevas oportunidades de negocio.
Al abrirle la puerta al mundo cognitivo, IBM habilita el siguiente nivel de innovación aprovechando las tecnologías de próxima generación.
Las organizaciones utilizan la analítica de negocio para conocer mejor su funcionamiento e identificar futuras oportunidades, pero los sistemas también pueden transformar el modo en el que piensan, se comportan y funcionan. En la era cognitiva, los sistemas pueden aprender de sus experiencias, encontrar correlaciones, crear hipótesis, recordar los resultados y aprender de ellos.
El roadmap de la nueva infraestructura de IBM abre camino al Big Data y al cómputo cognitivo gracias a alianzas estratégicas como la que desde hace varios años IBM sostiene con SAP, además de la certificación en todos sus productos, briefing centers y recursos dedicados a soluciones SAP a nivel global, y una adaptabilidad que permite administrar otras cargas de trabajo.
Una de las ventajas de estos ecosistemas es su flexibilidad y escalabilidad para acelerar la transformación de la mano de la nube híbrida, un imperativo empresarial estratégico que impulsa el alcance, la innovación y el cambio del modelo empresarial.

Llegó la era cognitiva con la infraestructura que la sostiene

Read More

lunes, 12 de diciembre de 2016


Si en México se puede construir confianza entre ciudadanía y gobierno es a nivel de las ciudades, donde existe contacto directo con la población. Las ciudades están siendo los motores de transformación global.
Miguel Ángel Mancera, jefe de gobierno de la Ciudad de México
  • El 4to Encuentro de Gobierno Abierto reunió a ciudadanía, sociedad civil, academia, iniciativa privada y gobierno para pensar en conjunto soluciones a partir del uso de datos abiertos.
  • En el encuentro se firmaron convenios de colaboración entre universidades y el gobierno de la CDMX para abrir datos, analizarlos y compartir conocimiento encaminado a mejorar políticas públicas.
  • A partir de una convocatoria abierta se presentaron 20 propuestas ciudadanas que señalaron qué bases de datos se necesitan para desarrollar soluciones en la megalópolis.
El 4to Encuentro de Gobierno Abierto, organizado por el Laboratorio para la Ciudad, tuvo como objetivo abrir bases de datos y pensar nuevas formas de resolver problemas. Esta edición, titulada “Soluciones para la Ciudad”, propuso pensar políticas y programas urbanos mediante el aprovechamiento de datos abiertos. 
En el acto de apertura asistieron Jaime Slomianski, titular de la Agencia de Gestión Urbana; Gabriella Gómez-Mont, directora del Laboratorio para la Ciudad; Manuel Granados, consejero Jurídico y de Servicios Legales de la CDMX, y directores de universidades y centros de investigación. 
Del Centro de Investigación y Docencia Económicas (CIDE), Jimena Moreno González; de la Universidad Nacional Autónoma de México, Javier García García; del Instituto Politécnico Nacional, Adolfo Guzmán Arenas; y del Tecnológico de Monterrey, Alejandro Poiré Romero, quien mencionó que problemas extraordinarios necesitan soluciones igualmente extraordinarias, a partir del uso de datos abiertos. 
Dentro de “Soluciones para la Ciudad” se celebró la firma de un mecanismo de colaboración entre cuatro universidades y el gobierno de la Ciudad de México en el que se reconoció la necesidad de coordinar esfuerzos para abrir datos, analizarlos y compartir conocimiento encaminado a optimizar políticas públicas. Asimismo, se presentaron 20 propuestas ciudadanas que enfatizaron qué datos abiertos se necesitan para desarrollar soluciones a problemas que enfrenta la megalópolis.

SE REALIZÓ EL 4TO ENCUENTRO DE GOBIERNO ABIERTO: SOLUCIONES PARA LA CIUDAD

Read More

jueves, 8 de diciembre de 2016


'·        Nacida en la nube, Apli dibuja ahora un plan de trabajo con Watson para conseguir un 99% de contactos gestionados con inteligencia artificial en un año.
·        Con las soluciones cognitivas de IBM, Apli construirá su negocio en semanas en vez de meses.
- Ganadores de la última edición de SmartCamp, de IBM, Apli trabaja en una estrategia basada en Bluemix y Watson, con la que esperan procesar el 99% de sus nuevos contactos de forma automática en 12 meses. Con esto espera beneficiarse con las múltiples ventajas que conlleva tener una solución cognitiva y capas de seguridad que vienen con ella.
Las soluciones cognitivas de IBM tienen la capacidad de analizar, comprender, aprender y generar insights de todo tipo de datos, estructurados y no estructurados, un punto que fortalecerá al robot con el que al día de hoy trabaja Apli.
Durante el registro y entrevista, los potenciales empleados realizan un cuestionario detallado, pruebas prácticas y psicométricas. Con más de 500 datos por persona, Apli desarrolló modelos predictivos que permiten predecir desempeño de las personas para distintas posiciones operativas. Cuando las empresas registradas necesitan ayuda, el algoritmo de selección elige el mejor candidato en función de su ubicación, experiencia y personalidad, aumentando la tasa de éxito y satisfacción de los clientes.
El equipo de Apli decidió no desarrollar una aplicación y en cambio trabajar con un robot que les permitiera enfocarse en desarrollar su negocio y obtener un retorno de inversión mucho más alto. "Fue una decisión de producto radical. Un robot se puede construir con unos pocos ingenieros de backend más una solución como la de IBM, y eso es mucho más eficiente y rápido que desarrollar apps", menciona José María Pertusa, uno de los fundadores de la plataforma.
Las empresas tecnológicas que han ido surgiendo viven un escenario práctico. Hoy día no es indispensable saber desarrollar ni programar para lanzar al mercado un emprendimiento exitoso.
"Hace 10 años, para poder desarrollar un producto con inteligencia artificial hubiéramos tenido que levantar cinco o 10 millones de dólares, contratar más de 20 ingenieros y esperar dos años para lanzar al mercado. En 2016 pasa algo increíble: con soluciones como las de IBM, puedes hacer un prototipo rápidamente, levantar dinero y crecer sin tener que mantener un equipo enorme con decenas de ingenieros", comenta José María Pertusa.
La clave del éxito para los negocios, más allá de su tamaño, está basada en la innovación, estrategia y el aprovechamiento de nuevas tecnologías que aceleran el crecimiento, como lo hace la nube.
Las herramientas en la nube son un gran aliado para las empresas, sobre todo al momento de observar infraestructura, plataformas y soluciones como un servicio a la medida. En este sentido, a través de Bluemix, se pueden utilizar más de 30 APIs con capacidades cognitivas, que en su conjunto integran 50 tecnologías diferentes.
"IBM cree que la transformación digital es el camino para desarrollar la innovación en las empresas. Con Bluemix en Watson, nuestro objetivo fue tener una herramienta rápida y fácil para ayudar a los clientes en su ruta digital y de innovación de negocio", dijo Julián Balderas, Gerente de Comunidad y Emprendimiento para IBM Latinoamérica.
El mercado que quieren conquistar Pertusa y Vera Makarov, su socia en el proyecto, tiene un valor de 200 mil millones de pesos al año tomando en cuenta que hay 20 millones de mexicanos que están desempleados o subempleados y mil millones de días laborales en comercio y servicios que se quedan sin cubrir anualmente por rotación y ausentismo.

Apli, ganadores de SmartCamp 2016, buscan innovar de la mano de Watson

Read More

miércoles, 7 de diciembre de 2016


La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha emitido los resultados del Informe del Programa Internacional para la Evaluación de Estudiantes 2015 (PISA por sus siglas en inglés), el cual evalúa el conocimiento y habilidades obtenidas por los estudiantes de 15 años para participar de manera integral en las sociedades modernas.1
La evaluación se realiza en torno a tres áreas de competencias, a saber, la lectura, las matemáticas y las ciencias naturales. Esta edición de PISA se enfocó en las últimas, las cuales, al ser desarrolladas, permiten a los individuos involucrarse en discusiones relacionadas con asuntos científicos y tecnológicos.
En el rubro de ciencias, México obtuvo un desempeño promedio equivalente a 416, tan sólo 1.5% mayor que en PISA 2006, ubicando al país 141 puntos por debajo de Singapur y 77 puntos por debajo del Promedio de países que pertenecen a la OCDE. A su vez, el país se posicionó entre países como Colombia (416) y Montenegro (411).
Uso de las TIC para el Aprendizaje Científico
El Índice de Actividades en Ciencias, es una herramienta que también puede localizarse en el Informe PISA 2015. Se construyó a partir de preguntas realizadas a los estudiantes para reconocer su nivel de involucramiento en actividades útiles para el aprendizaje científico, muchas de ellas relacionadas con las Tecnologías de la Información y la Comunicación (TIC) como visitar páginas web con contenido científico; simular fenómenos naturales o procesos técnicos en programas computacionales o laboratorios virtuales; visitar sitios web de organizaciones medioambientales; además de dar seguimiento a noticias científicas y  ecológicas a través de blogs o sistemas de microblogging.
En el caso mexicano, 32.9% de los estudiantes de 15 años encuestados, declararon que visitan de manera muy frecuente o regular los sitios web con contenido científico. Este indicador es superior al promedio de la OCDE (19.1%), pero inferior al República Dominicana (40.7%)
En cuanto a simular fenómenos naturales en programas computacionales o laboratorios virtuales, 17.5% de los estudiantes mexicanos reportaron realizar esta actividad frecuentemente. El promedio de la OCDE al respectó equivalió a 9.6% mientras que el país latinoamericano con el mejor resultado fue República Dominicana (31.4%).
Desempeño en Ciencias y Componentes del Índice de Actividades en Ciencias
Fuente: The Social Intelligence Unit con Datos de los componentes de  Índice de Actividades en Ciencias de PISA 2015.
En lo referente a actividades de simulación de procesos técnicos en programas computacionales o laboratorios virtuales, 17.9% de los estudiantes mexicanos reportaron realizarla frecuentemente. Por su parte, el promedio de la OCDE resultó en  9.9%, mientras que en República Dominicana fue 33.7%.
En las visitas a sitios Web de organizaciones medioambientales, 22.5% de los estudiantes mexicanos reconocieron hacerlo de manera asidua, mientras que la OCDE promedió 11.2% y en República Dominicana el indicador equivalió a 33.7%.
Por último, 24.3% de los estudiantes mexicanos de 15 años reportaron dar seguimiento a noticias científicas y medioambientales a través de blogs y sistemas de microblogging. Al respecto, el promedio de la OCDE fue 14.6% y República Dominicana arrojó 36.1% en este indicador.
Estas métricas de actividades relacionadas con la ciencia entran en franco contraste con los resultados en el desempeño en ciencias mostrado en PISA 2015, ya que aunque en República Dominicana y en México exista una mayor porción de estudiantes realizando actividades científicas a través de las TIC, sus resultados en cuanto a competencias en ciencia fueron de los más bajos.
Este fenómeno deja en claro que aunque las plataformas digitales facilitan el acceso al conocimiento científico, su aprovechamiento no necesariamente es el mismo.
El estudiante promedio de la OCDE acude a las TIC  con menor frecuencia que el estudiante mexicano o el de República Dominicana, sin embargo, sus competencias en ciencias se encuentran más desarrolladas, mostrando que los primeros tienden a aprovechar mejor el conocimiento disponible en plataformas digitales.
Lo anterior es un indicador de que toda política pública que busque ampliar el acceso a las TIC con fines educativos y científicos, también debe centrarse en desarrollar estrategias para que su uso impacte a la sociedad de manera efectiva.

Las TIC en el Aprendizaje Científico

Read More

martes, 22 de noviembre de 2016



o      Drayson Technologies trabajará con Uber México para equipar a los socios de Uber con CleanSpace™ Tags, sensores portátiles inteligentes de medición de contaminación de aire.
o      Con esta asociación, se monitorearán los datos de contaminación del aire al mismo tiempo que los autos recorren las calles, con el fin de crear un mapa hiperlocal de la contaminación del aire en la Ciudad de México.


 Drayson Technologies, una compañía  de ‘Internet de las Cosas’ por sus siglas en inglés IoT (Internet of Things) y Uber México, se alían para generar información hiperlocal de la contaminación ambiental en la Ciudad de México, con el fin de ayudar a las personas a ‘ver el aire que respiran’™.

Con esta alianza, diversos automóviles contarán con un dispositivo CleanSpace™ Tag de Drayson Technologies, un sensor de contaminación del aire inteligente, convirtiéndolos en una red móvil de monitoreo ambiental. Los sensores recopilarán información valiosa sobre los niveles de calidad del aire, no sólo dentro de los vehículos y las calles, sino también en lugares como tiendas y restaurantes.




La Ciudad de México sufre problemas de contaminación ambiental, en marzo de este año se levantó una alerta por la peor crisis de calidad del aire en más de una década. La alianza con Uber México, sede de una de las principales ciudades para Uber en América Latina, marca el compromiso de ambas empresas para ayudar a resolver el problema de la contaminación del aire que enfrenta la Ciudad de México y otras ciudades de todo el mundo.

El CleanSpace™ Tag utiliza Sensyne, una plataforma de software que incluye aprendizaje inteligente de máquina, lo que aumenta la exactitud de los datos sobre la contaminación del aire. Estos datos se combinan con otros recopilados por la red de CleanSpace para proporcionar una imagen hiperlocal de la contaminación del aire por toda la ciudad.

Lord Paul Drayson, Presidente y CEO de Tecnologías de Drayson dijo:

"El uso de la red IoT de CleanSpace permite a los socios de la plataforma de Uber participantes convertirse en monitores móviles de contaminación del aire, es un gran ejemplo de cómo la tecnología innovadora se puede utilizar para ayudar, no sólo a hacer una ciudad inteligente, sino una sociedad más inteligente".

UBER Y DRAYSON TECHNOLOGIES SE ASOCIAN PARA CREAR UNA RED DE SENSORES IoT PARA MONITOREAR LA CONTAMINACIÓN DEL AIRE EN LA CIUDAD DE MÉXICO

Read More

sábado, 8 de octubre de 2016

  • CommScope estará presente en el Datacenter Dynamics Perú 2016, donde compartirá con todos los asistentes sus nuevas soluciones para la Gestión de Infraestructura en Centros de Datos.
 

 
Siempre a la vanguardia para ofrecer las mejores soluciones que puedan ayudar a las empresas a crear una infraestructura de Centros de Datos sólida, eficiente y ágil, CommScope estará presente en la más reciente edición del Datacenter Dynamics (DCD) en Perú, el próximo 19 de Octubre, donde además de mostrar la gran variedad de productos de su portafolio, estará presentando su nueva solución imVision, la cual permitirá gestionar su Centro de Datos de manera inteligente y con un control sin precedentes sobre la conectividad de su red.
Image result for CommScope estará presente en el Datacenter Dynamics Perú 2016La gran evolución de las redes de datos ha ocasionado que cada vez se demande una mejor infraestructura que satisfaga adecuadamente las nuevas necesidades de conexión y transmisión de datos. Actualmente a la par de la tecnología también las formas de comunicarse a través de ella han cambiado: las redes de información están disponibles para cualquier persona que cuente con un dispositivo con conexión a la red, por lo cual se exige a los Centros de Datos contar con una infraestructura que permita un acceso rápido a la información, disponibilidad constante, así como una mayor eficiencia en su operación.
“Anteriormente la información se generaba y distribuía en el ambiente de negocios, corporativo; ahora la información es prácticamente universal. Cualquier persona puede conectarse a la red a través de dispositivos móviles, lo cual ha tenido un impacto total en los Centros de Datos, ya que la información debe estar disponible para cualquier usuario, en cualquier lugar y momento, exigiendo que la infraestructura de estos Centros de Datos deba adaptarse a nuevos requerimientos”, señaló Carlos Morrison Fell, Director Field Application Engineer – CALA en CommScope.
Sin embargo, con todos los avances e innovación en la infraestructura de los Centros de Datos, no sólo el acceso a la información y su disponibilidad han sufrido grandes cambios, sino que también ha implicado mayores desafíos para la gestión de la infraestructura, ya que las nuevas velocidades de transmisión, así como los mayores anchos de banda, implican consideraciones adicionales de funcionamiento y diseño, situaciones que impactan directamente en los procesos que se llevan a cabo en estos centros.
Al respecto, Sergio Uribe, Manager Regional Consultant - CALA en CommScope, mencionó: “para que una empresa pueda minimizar sus gastos de operación y reducir los errores en sus Centros de Datos, es indispensable que éstos puedan adaptarse de manera rápida a los continuos cambios en la tecnología, manteniendo siempre un tiempo de inactividad reducido al mínimo, por ello lo ideal es tratar de automatizar todos los procesos para disminuir al máximo los posibles errores humanos y las intermitencias en la transmisión de los datos, de esta forma se puede realizar el trabajo de los Centros de Datos de una forma mucho más eficiente, minimizando el impacto en los costos y aumentando la productividad”.
Hoy en día las infraestructuras de comunicaciones de los Centros de Datos deben adaptarse a las nuevas redes de transmisión de datos, por lo que deben estar preparadas para el cambio hacia 10/25/40/50/100/400 Gbps, sin que ello represente un impacto, tanto en costos de operación, como acondicionamiento de espacio y en adaptación de las tecnologías a futuro, como lo pueden ser, por ejemplo, el nuevo estándar en Fibra Óptica llamado Wideband Multimode Fiber (WBMMF), el cual permite extender las longitudes de onda de transmisión de 10G en un hilo de fibra, a la actualidad, donde se pueden transmitir cuatro canales de 10G en el mismo hilo (40G).
“En la actualidad el departamento de TI tiene la responsabilidad de mantener la productividad de las empresas, para lo que requiere de un funcionamiento continuo y óptimo de las redes de comunicación. Considerando que alrededor del 70% del downtime en Data Centers puede atribuirse al error humano, añadir automatización a la gestión de infraestructura ya no se puede considerar un lujo, sino una necesidad. Por ello en esta ocasión estaremos presentando una de nuestras soluciones más innovadoras de CommScope: imVision; la cual combina hardware y software inteligentes no sólo para administrar, sino para monitorear la red mediante la detección de actividades de parcheo, dando visibilidad y control total, lo que permite eliminar los puntos ciegos de la infraestructura del centro de datos”, afirmó Sergio Uribe.
De esta forma los retos en infraestructura de los Centros de Datos siguen creciendo, pues ahora el desafío para las empresas es lograr adaptar las nuevas tecnologías en infraestructura de red, al mismo tiempo que requieren administrarla de mejor forma, que minimice los costos y que sea más independiente e inteligente, de tal forma que permita la flexibilidad, velocidad y adaptación requerida por el mercado y los avances
Si desea conocer más sobre cómo la infraestructura de comunicaciones de su centro de datos debe adaptarse a las nuevas redes de transmisión de datos, y cómo puede prepararse para el cambio hacia mayores velocidades, protegiendo su inversión inicial y minimizando su impacto a futuro, lo esperamos en nuestro stand dentro del Datacenter Dynamics Perú 2016.

CommScope estará presente en el Datacenter Dynamics Perú 2016

Read More

Copyright © News Informanet | Designed With By Blogger Templates
Scroll To Top