¿Quiénes somos?

Opallios es una innovadora empresa de consultoría de tecnología con una combinación única de datos grande, Salesforce, la estrategia, y la experiencia de desarrollo de productos.

Trabajamos con clientes en muchas industrias verticales, incluyendo tecnología, salud, servicios financieros y la hospitalidad. Ayudamos a nuestros clientes a aprovechar la nube y Salesforce para obtener un valor de negocio a partir de la revolución de datos.



Peter Zadrozny of Opallios to Speak at the Palo Alto Data Science Association Meet-up

Santa Clara, CA – February 27, 2014 – Opallios, a company specializing in big data and cloud solutions, today announced that Peter Zadrozny, CTO and Founder of Opallios, will be speaking at the Palo Alto Data Science Association Meet-up to be held on March 6th, 2014 in Menlo Park, CA.

Mr. Zadrozny will be speaking about his experiences with projects that involve the use of sentiment analysis algorithms. He will walk through the phases of data acquisition, preparation, how to get good training data, what elements impact a Naïve Bayes model, and how Splunk was instrumental as a key tool in solving big data problems.

The Palo Alto Data Science Association (PADSA) Meet-up group was founded November 2013 and has grown to over 400 data scientists, engineers, and technologists. Drawing primarily from the expertise of members, topics lean toward live demos, real world applications, and innovative approaches to solving data science challenges.

About Opallios

Opallios specializes in outsourced product development, embracing emerging technologies in data and analytics to offer an unparalleled and innovative value proposition. From strategy through to implementation, Opallios follows a unique operational model to leverage the best talent pool across the world, deploying the latest viable technologies while maintaining focus on high quality and efficient total cost of ownership.

For more information on Opallios visit www.opallios.com or write to inquiries@opallios.com

For more information on the Palo Alto Data Science Association visit www.meetup.com/Palo-Alto-Data-Science-Association



Lo que realmente es Big Data?

Big Data es la última palabra de moda, y como tal, todo el mundo lo está utilizando para su conveniencia. Esto ha creado inevitablemente cierta confusión. En esta entrada del blog vamos a tratar de aclararlo.

Big data es de dos cosas: de grandes conjuntos de datos normalmente no estructurados y algunas técnicas relativamente nuevas para hacer frente a este tipo de datos. Para obtener una buena perspectiva que tenemos que empezar por revisar las bases de datos relacionales.

En general, la forma tradicional de manejo de datos es mediante el uso de una base de datos relacional. Cuando se utiliza una base de datos para el procesamiento de transacciones en línea, tendemos a ver una configuración independiente para el análisis. Esto se conoce comúnmente como un almacén de datos, que proporciona un alivio de procesamiento de la base de datos principal. También cuenta con algunas herramientas de inteligencia de negocios analítica o la llamada. Las grandes bases de datos relacionales tienden a ser proposiciones caros, como los costos de las unidades de procesamiento y los discos son muy altos.

Bases de datos relacionales se basan en lo que se llama “estructura de enlace temprano”. Lo que esto significa es que usted tiene que saber qué preguntas van a pedir que la base de datos para que pueda diseñar los esquemas, tablas y relaciones. Cualquier nuevas preguntas que no encajan en este esquema requieren alguna modificación del esquema que normalmente implica una buena cantidad de tiempo y buenas habilidades técnicas.

Estas restricciones de bases de datos relacionales se pueden considerar el precio a pagar por tener un sistema que se puede considerar totalmente transaccional, es decir, que cumple totalmente con las propiedades ACID.

Vamos a pasar a la actual “big data”. Puede ser dividido en dos partes. El primero es lo que llamamos nuestra huella digital. Se trata de todos nuestros correos electrónicos, los blogs que leemos y posiblemente escribir, tweets, Registros de Foursquare, entradas de Facebook, etc. La segunda parte es un dato de máquina, como los archivos de registro generados por todos aquellos equipos que apoyan nuestra huella digital. Pero también hay un montón de otros datos de la máquina tal como la obtenida por los sensores que nos presentan con seguimiento de vuelos en tiempo real, etc.

La mayoría de estos datos no es estructurado, que puede ser vagamente definido como un número variable de campos de tamaño variable, que puede ser o no está presente. Big data también tiende a ser grande, muy grande. Basta pensar en los archivos de registro de acceso a la web de un sitio web popular. Puede generar un par de megabytes por día, tal vez incluso por la hora. Además, estos datos tiende a no ser misión crítica. No sólo que, en general no requiere las funcionalidades ofrecidas por un sistema totalmente transaccional. Después de todo, la mayoría de las veces todo lo que hacemos con ella corren algunos análisis.

Ahora que tenemos una mejor comprensión de los grandes datos, vamos a darle la vuelta al paradigma de base de datos relacional de centralizado, de alto rendimiento, el procesamiento completamente transaccional para un procesamiento distribuido con una mayor latencia que podrían cumplir con sólo uno o dos de las propiedades ACID, ya veces ninguno .

Herramientas de datos grandes, como Hadoop y Splunk se basan en este otro paradigma, procesamiento distribuido de datos que también se distribuye. Estas herramientas están diseñadas para funcionar en el hardware de los productos básicos, y son lo suficientemente resistentes para manejar las fallas que se esperan de un hardware barato. Sin embargo, estas herramientas tienen una latencia más alto para procesar estos datos y han disminuido el apoyo de muchas (o todas) las propiedades ACID. Sólo pensar en ello como el precio a pagar para hacer frente a muy grandes de datos no estructurados.

Esto es lo que los grandes datos es sobre todo, un paradigma diferente para el procesamiento de datos.

Una última reflexión, estas herramientas de datos grandes también pueden manejar datos estructurados, que también podría ser pequeña, así que no poner limitaciones a las funcionalidades de estas herramientas.

En la siguiente entrada del blog vamos a explicar con más detalle las herramientas de datos grandes y sus técnicas subyacentes.



Impacto de Big Data en el Social Media

Social Media: El no minado Frontier

IBM estima que 2,5 trillones de bytes de datos nuevos se crean cada día. Para poner esto en perspectiva, los medios sociales por sí solo genera más información en un corto período de tiempo del que existía en el mundo entero hace varias generaciones. Los sitios populares como Facebook, Instagram, Foursquare, Twitter y Pinterest crear cantidades masivas de datos que, si se traduce correctamente por grandes aplicaciones serían boleto de oro de cualquier marca en la mente de sus consumidores.

Por desgracia, los datos producidos por los medios de comunicación social no sólo es enorme: es no estructurada. La tarea de capturar, procesar y gestionar estos datos es, sin duda, más allá de la escala humana. De hecho, es más allá de la escala de software más común. Debido a esto, existe una pared de cristal entre los vendedores y los datos se pueden ver, pero no pueden aprovecharla.

Es fácil ver cómo los grandes datos encaja en el cuadro. Las ofertas de la industria Big Data en conjuntos de datos que van desde unas pocas docenas de terabytes a muchos cientos de petabytes. Una serie de aplicaciones Big Data se han creado específicamente para dar sentido a los datos de medios sociales. Los expertos de mercado utilizan estas herramientas para determinar el impacto de cada tweet, etiqueta, pin, check-in, y al igual que en su marca. Siga leyendo para aprender más acerca de la utilización de grandes volúmenes de datos a la escucha en la conversación social media.

Tener sentido de la Conversación

Las empresas que se utilizan para poder contratar a los seres humanos para separar la paja del trigo. Por ejemplo, las calificaciones de Nielsen eran una forma directa para las empresas para analizar la eficacia de su publicidad en la televisión. Fue datos altamente procesable mirada a los números dio ejecutivos un estadio de béisbol para trabajar con la hora de tomar decisiones publicitarias costosas.

Los medios sociales, por otro lado, es muy parecido a la palabra de la boca-a excepción de que todo lo que sus consumidores dicen que está archivado en bases de datos masivas, y sólo una fracción microscópica de la conversación es ni remotamente relevante para la marca de su empresa. El truco para la navegación con estos enormes extensiones de información es saber cómo buscar los datos “correctos”. Los datos del “derecho” es la que impulsa acciones de los consumidores. Una cosa es tener diez millones de impresiones en un YouTube de valor y otra es entender por qué su marca es estimulante tanto parloteo. Con el fin de aprovechar la charla y convertirla en información, las empresas deben comenzar a dar vuelta a Big Data para la traducción.

Incluso hoy en día, las empresas contratan pasantes universitarios y comercializadores despistados que cuidar a su feeds de Twitter y guiar a sus marcas. Ellos no reconocen que los medios de comunicación social es una bestia diferente; también no reconocen que es una fuente sin explotar de la información vital acerca de su marca. Big Data utiliza aplicaciones a gran escala para traducir instantáneamente franjas masivas de datos en información legible por humanos. Esta información se puede cumplir para aumentar su línea de fondo. En otras palabras, hay una manera de probar que su vídeo de YouTube está impulsando las ventas-sólo hay que saber mirar.

El aprovechamiento de los datos para impulsar su marca

El consumidor de hoy interactúa con su marca de innumerables maneras. Les gusta su página en Facebook, ver sus anuncios en YouTube, descargar las aplicaciones gratuitas, leer sus noticias en sus tabletas, chatear en línea con sus representantes de servicio al cliente, y la lista continúa. Datos está ahí para la minería, pero no es simplemente demasiado de él, y la mayor parte de la misma es contradictoria. Afortunadamente, hay un sinfín de maneras para que usted pueda utilizar aplicaciones Big Data para hacer este trabajo de información para su marca:

Contratar a las personas adecuadas. El primer paso es obtener el equipo adecuado a bordo. Haciendo uso de todos los datos requiere de habilidades que sus vendedores no pueden haber necesarias antes. Usted puede contratar a sus propios ingenieros de bases de datos, informáticos y estadísticos, o usted puede hacer uso de una miríada de soluciones Big Data que ofrece nuevas empresas en ciernes y las grandes corporaciones.

Siga las palabras clave. Sintonización de palabras específicas, y el análisis de cuándo y dónde se utilizan, pueden dar resultados sorprendentemente claros. Imagine que es capaz de recoger además las llamadas de servicio al cliente y determinar el factor de motivación detrás de una serie reciente de cuentas terminadas. Armado con esta información, se puede identificar en riesgo a los clientes y empezar a conocer sus necesidades antes de abandonar el barco.

compromiso de la marca de medición. Fomentar la relación emocional entre el producto y el consumidor ha sido siempre el objetivo final de la comercialización. Los medios sociales crea compromiso de la marca en un nivel mucho más allá de lo que cualquiera hubiera imaginado, así que aprender cómo tener un diálogo con sus clientes es más importante que nunca.

Correlacionar los hechos. Por factores como el tráfico web, las compras de productos, publicidad gasto, y consultas de los clientes comparar, es posible realizar un seguimiento de la eficacia de sus medios inversiones-y hacer los ajustes informadas cuando se está gastando demasiado o demasiado poco.

Anticipar el futuro. Quizá la aplicación más rentable de Big Data es la hora de anticipar el futuro. Las empresas pueden analizar datos sobre el comportamiento de los clientes con el fin de llegar a conclusiones informadas con respecto a cómo los nuevos productos se comportarán en el mercado. También es posible atajar inminentes crisis de relaciones públicas, y reaccionar en tiempo real a las percepciones y las necesidades cambiantes de los clientes.

El bullicio en torno a los grandes datos es considerable. Las start-ups y empresas por igual están vendiendo soluciones para la extracción de datos de su manera de aumento de los beneficios. Afortunadamente, este es un caso en que la solución a la altura de las expectativas. El empleo de aplicaciones Big Data para medir el compromiso de la marca es esencial para las empresas que desean conectar con los consumidores modernos. La conversación está sucediendo-le toca a usted para empezar a escuchar.



Impacto de Big Data en el Sector Salud

Los grandes actores de Big Data

Hay una buena cantidad de rumores alrededor de Big Data-no pasa una semana sin que una nueva puesta en marcha o negocio predicando las virtudes de la minería extensiones masivas de información. Comprensiblemente, muchos tienen problemas para ver más allá del bombo, pero en ninguna parte son los beneficios de los grandes datos más tangible que en el sector sanitario.

IBM predice una disminución del 20% en la mortalidad de los pacientes como el campo médico se prepara para analizar la transmisión de datos de los pacientes con las aplicaciones de software a gran escala. Eso no es sólo un retorno de la inversión (aunque lo es) -que está utilizando la información para salvar vidas humanas. Incluso ahora, las grandes corporaciones como Microsoft, Dell, IBM y Oracle son pioneros en las plataformas de extracción de datos que ayudarán a los profesionales médicos se quedan en la parte superior de los datos del paciente y proporcionar una mejor atención médica.

 

Las ofertas de la industria Big Data principalmente en colecciones de datos que están más allá de la capacidad del software común para capturar, procesar y administrar de una manera oportuna. La cantidad de datos procesados pueden ir desde unas pocas docenas de terabytes a muchos petabytes de información. Una gran cantidad de herramientas de Big Data se han lanzado recientemente para hacer sentido de que todo lo que se podría decir que están encontrando nuevas maneras de hacer que los datos ganan su espacio. Siga leyendo para aprender más sobre el impacto colosal de Big Data en la industria de la salud.

La minería de datos para salvar vidas

El mayor riesgo que cualquier paciente toma durante su internamiento en un hospital está siendo examinado por otro ser humano. Señales de advertencia perdidas, pasan por alto los factores de riesgo, y las evaluaciones superficiales son a menudo parte de las salas de admisión agitados. Es por eso que los proveedores de salud están empezando a convertir a las computadoras para ayudarles a tomar decisiones rápidas y precisas acerca de la salud del paciente. Hay un sinfín de oportunidades emocionantes para Big Data en el futuro de la salud:

 La reducción de reingresos. ¿Qué pasa si un montón de datos podría decirte qué tan probable que un paciente debía ser readmitido después del tratamiento? Los médicos lo haría capaz de juzgar si los pacientes se beneficiarían de estancias cortas y largas, así como realizar un seguimiento de los factores de tratamiento específicos que conducen a la reaparición de enfermedades. Esto ahorra tiempo (y dinero), tanto para el médico y el paciente.

• Acceso a los datos en cualquier lugar. El uso de tecnologías de la consulta de datos fiables que puedan analizar enormes cantidades de información, es posible que los profesionales médicos tengan acceso a datos remotos para una comprensión más completa y oportuna de la enfermedad de su paciente.

•Point-Of-Care Toma de Decisiones. Imagínese herramientas y equipos con los datos incorporados en el procesamiento capaz de ayudar a los médicos realizar llamadas instantáneas, salvar vidas en el punto de atención. La aplicación más obvia de esto es en las zonas de ritmo rápido, como la sala de emergencias de un hospital.

 Innovadoras Smart Devices. Ya estamos rodeados de dispositivos inteligentes capaces de canalizar grandes cantidades de datos a la velocidad de la luz. ¿Por qué no poner un chip en un monitor de la diabetes en el hogar que puede enviar de nuevo los datos frecuentes y útiles sobre el tratamiento en el hogar de un paciente? Tome un paso más allá, y hacer que los cepillos de dientes inteligentes, inodoros inteligentes y báscula inteligentes capaces de informar de inmediato sobre la condición del paciente.

• Secuenciación del Genoma. Aunque sigue siendo un sueño lejano, la secuenciación del genoma puede ser el elemento más intrigante en esta lista. Cuando el genoma humano fue decodificado primero, tardó más de diez años para procesar los datos (que se encuentra en petabytes) -ahora que se necesita más que una semana. Como la tecnología Big Data se expande para procesar cantidades incluso mayores de datos, todos los días de la secuenciación del genoma puede estar disponible para el sector privado.

Muchas de estas posibilidades ya están en proceso de ser implementadas, pero algunas posibilidades son un poco más lejos. De cualquier manera, es alentador que considerar que la amassment de enormes cantidades de datos en una práctica mal vista por muchos amantes de la privacidad ciudadanos-can y tendrá un profundo efecto en vidas salvadas y mejoradas por la tecnología médica.

 

Big Data Haciendo la Diferencia

Según Business Week, Nueva York-Presbyterian comenzó a implementar la tecnología de Microsoft en 2010 para digitalizar los registros de pacientes-y se han reducido los casos de coágulos sanguíneos mortales en casi un tercio. También se presentó fue Seton Family Healthcare, que utiliza la minería de datos para descubrir que una vena yugular abultada es un predictor que los pacientes ingresados ​​por insuficiencia cardiaca congestiva será llegar de vuelta a través de las puertas giratorias del hospital casi tan pronto como lo han sido enviados.

En un artículo reciente, fastcompany.com destacó un caso grave de reingresos en el Washington Hospital Center, un centro de salud cerca de DC médicos de la sala de emergencia fueron empezando a ver una tendencia inquietante en la cantidad de pacientes que regresan a la sala de emergencia con los mismos problemas que tenían antes. Cuando se hizo evidente que el centro iba a ser penalizado por los reingresos, trabajaron con un científico de la computación de Microsoft Research para analizar datos de más de 300.000 visitas a urgencias.

Encontraron dos importantes visitas rojo banderas ER-más de 14 horas, y la palabra “. Fluidos” Las tasas de reingreso para los hospitales americanos son tan altos como el 20% dentro de los primeros treinta días, y los costos de Medicare $ 17 mil millones al año. Centro Hospitalario de Washington espera utilizar la información que espigar para llegar a la raíz de sus problemas de readmisión.

Los hospitales de todo el país han comenzado a utilizar las aplicaciones de software de datos grandes para hacer mejoras en el diagnóstico de la salud del paciente. En muchos casos, se recoge datos nuevos o existentes, analiza, y se aplicó a analizar pequeñas pero significativas piezas de evidencia que se pasa por alto por un médico simple lectura de un gráfico. Sólo en 2011, Big Data generó más de $ 30 mil millones de dólares en ingresos, según un estudio de IDC. Ese número sólo se espera a subir como el sector sanitario se calienta a las nuevas tecnologías.