COMPUTACION COGNITIVA E INTELIGENCIA COGNITIVA DEL GRUPO
GRUPO D
ACTIVIDAD 2 ¨PROYECTO DE INVESTIGACION PARTE 2 ¨
1. LOS SISTEMAS DE LA ANALITICA COGNITIVA
DOCTORA: FABIOLA SERNA HERNANDEZ
LILIANA CASTILLO HERNANDEZ
GERARDO CORTES JIMENEZ
27 DE FEBRERO DEL 2020
INTRODUCCION
La analítica cognitiva se ve impulsada por la introducción de soluciones cognitivas que permiten multiplicar exponencialmente la eficiencia de cada investigación. Este tipo de sistemas son el complemento necesario para las interacciones con big data al tener capacidad para hacer deducciones razonadas, generar hipótesis y probarlas, entender virtualmente todos los tipos de datos (incluyendo el lenguaje natural, imágenes, sonidos y otros datos no estructurados) y para aprender de las interacciones en curso, logrando perfeccionar la interpretación que se hace de la información.
Además, los sistemas cognitivos pueden interactuar con los seres humanos, comunicándose en lenguaje natural y aportando conclusiones.
Uno de los negocios más importantes que se generan hoy día es la minería de datos, que basados en la información que muchos usuarios generan en la gran nube para comercializar la información recabada en toda esa nube de información, y como y las aplicaciones de las mismas
En el presente blog analizaremos información a detalle de la minería de datos asi como la aplicación de las mismas
MINERIA DE DATOS
El Data Mining es un conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objetivo de encontrar patrones repetitivos que expliquen el comportamiento de estos datos.
A pesar de que la idea del Data Mining puede parecer una innovación tecnológica muy reciente, en realidad este término apareció en los años sesenta conjuntamente con otros conceptos como por ejemplo, el data fishing o data archeology. No obstante, no fue hasta los años ochenta cuando empezó su consolidación.
La minería de datos surgió con la intención o el objetivo de ayudar a comprender una enorme cantidad de datos, y que estos, pudieran ser utilizados para extraer conclusiones para contribuir en la mejora y crecimiento de las empresas, sobre todo, por lo que hace a las ventas o fidelización de clientes comportamiento de los datos que se han ido recopilando con el tiempo. Estos patrones pueden encontrarse utilizando estadísticas o algoritmos de búsqueda próximos a la Inteligencia Artificial y a las redes neuronales.
Por tanto, los datos son el medio o la base para llegar a conclusiones y transformar estos datos en información relevante, para que las empresas puedan abarcar mejoras y soluciones que les ayuden a conseguir sus objetivos.
Las personas que se dedican al análisis de datos a través de este sistema son conocidos como mineros o exploradores de datos, estos intentan descubrir patrones en medio de enormes cantidades de datos. Su intención es la de aportar información valiosa a las empresas para así, ayudarlas en la toma de decisiones futuras. Pero debemos tener claro que la elección del mejor algoritmo para una tarea analítica específica es un gran desafío, ya que podemos encontrar muchos patrones distintos, y además, dependerá de los problemas a resolver. Estos pueden ser la clasificación, regresión, segmentación, asociación y análisis de secuencias.
Los mineros o exploradores de datos a la hora de llevar a cabo un análisis de Data Mining, deberán realizar cuatro pasos distintos:
1. Determinación de los objetivos: El cliente determina qué objetivos quiere conseguir gracias al uso del Data Mining.
2. Procesamiento de los datos: Selección, limpieza, enriquecimiento, reducción y transformación de la base de datos.
3. Determinación del modelo: Primero se debe hacer un análisis estadístico de los datos y después visualización gráfica de los mismos.
4. Análisis de los resultados: En este paso se deberán verificar si los resultados obtenidos son coherentes.
Actualmente este tipo de trabajos se están realizando en seguridad de datos, finanzas, salud, marketing, detección de fraude, búsquedas online, procesamiento del lenguaje natural, coches inteligentes, entre otros. Es por este motivo, que la minería de datos se está convirtiendo en uno de los trabajos con mayor proyección para el futuro.
VENTAJAS Y DESVENTAJAS DEL DATA MINING
Los análisis de datos mediante el Data Mining pueden aportar numerosas ventajas a las empresas para la optimización de su gestión y tiempo, pero también para la captación y fidelización de clientes, que les permitirá aumentar sus ventas. Aquí te dejamos 8 ventajas que nos puede aportar.
A. Permite descubrir información que no esperábamos obtener. Esto se debe a su funcionamiento con algoritmos, ya que permite hacer muchas combinaciones distintas.
B. Es capaz de analizar bases de datos con una enorme cantidad de datos.
C. Los resultados son muy fáciles de interpretar y no es necesario tener conocimientos en ingeniería informática.
D. Permite encontrar, atraer y retener clientes.
E. La empresa puede mejorar la atención al cliente a partir de la información obtenida.
F. Da a las empresas la posibilidad de ofrecer a los clientes los productos o servicios que necesitan.
G. Antes de usar los modelos, estos son comprobados mediante estadísticas para verificar que las predicciones obtenidas son válidas.
H. Ahorra costes a la empresa y abre nuevas oportunidades de negocio.
Sin embargo, también puede aparecer algún inconveniente a la hora de utilizar técnicas de Data Mining, por ejemplo, dependiendo del tipo de datos que se quieran recopilar, nos puede llevar mucho trabajo, o a veces la inversión inicial para obtener las tecnologías necesarias para la recopilación de datos puede tener un coste elevado.
APLICACIÓN
La minería de datos se utiliza sobre todo hoy en día por las empresas con un enfoque fuerte en los consumidores – comunicaciones, comercio, finanzas, y las organizaciones de comercialización.
Esto permite que las empresas determinen las relaciones entre los factores "internos" como el precio, posicionamiento del producto, o las habilidades del personal, y factores "externos", como los indicadores económicos, la competencia, y la demografía de los clientes. Y, les permite determinar el impacto en las ventas, la satisfacción del cliente, y las ganancias corporativas. Por último, les permite "profundizar" en la información resumida para ver datos detallados de las transacciones.
· Clases: Los datos almacenados se utilizan para localizar datos en grupos predeterminados. Por ejemplo, una cadena de restaurantes podría minar datos de compra del cliente para determinar cuando los clientes los visitan y lo que normalmente ordenan. Esta información podría utilizarse para aumentar el tráfico al tener especiales del día.
· Grupos: Los elementos de datos se agrupan de acuerdo a las relaciones lógicas o preferencias de los consumidores. Por ejemplo, los datos pueden ser extraídos para identificar segmentos de mercado o afinidades de los consumidores.
· Asociaciones: Los datos pueden ser minados para identificar asociaciones. El ejemplo de cerveza-pañal es un ejemplo de minería asociativas
· Patrones secuenciales: Los datos se minan para anticipar patrones de comportamiento y tendencias. Por ejemplo, un distribuidor especializado en sistemas al aire libre puede predecir la probabilidad de compra de una mochila basado en la compra de un consumidor de sacos de dormir y calzado de senderismo.
La minería de datos se compone de cinco elementos principales:
A. Extraer, transformar y cargar datos de transacciones en el sistema de almacenamiento de datos.
B. Almacenar y manejar los datos en un sistema de base de datos multidimensional.
C. Proporcionar acceso a datos para los analistas de negocios y profesionales de tecnologías de la información.
D. Analizar los datos por un software de aplicación.
E. Presentar los datos en un formato útil, como un gráfico o tabla.
Niveles de análisis disponibles
ü Redes neuronales artificiales Modelos predictivos no lineales que aprenden a través de la formación y se asemejan a redes neuronales biológicas en su estructura.
ü Algoritmos genéticos: Técnicas de optimización que usan procesos tales como combinación genética, mutación y selección natural en un diseño basado en los conceptos de evolución natural.
ü Árboles de decisión Estructuras en forma de árbol que representan conjuntos de decisiones. Estas decisiones generan reglas para la clasificación de un conjunto de datos. Métodos específicos de árboles de decisión incluyen Árboles de Clasificación y Regresión (CART) y Detección Automática de Interacción (Chi Cuadrado CHAID).
ü CART y CHAID son técnicas de árboles de decisión para la clasificación de un conjunto de datos. Constituyen un conjunto de reglas que se pueden aplicar a un nuevo (sin clasificar) conjunto de datos para predecir cuáles registros tendrán un resultado determinado.
ü CART segmenta un conjunto de datos mediante la creación de dos vías dividas, mientras que CHAID segmenta utilizando pruebas de chi cuadrado para crear divisiones en múltiples direcciones. CART normalmente requiere menos preparación de datos que CHAID.
INFRAESTRUCTURA
Hoy en día, las aplicaciones de minería de datos están disponibles en sistemas de todo tamaño, para mainframe, cliente / servidor, y para PC. Los precios de sistemas van desde varios miles de dólares para las aplicaciones más pequeñas hasta 1 millón de dólares por terabyte en los más grandes. Las aplicaciones a nivel de empresa, en general, varían en tamaño desde 10 gigabytes a más de 11 terabytes. Hay dos factores tecnológicos críticos:
Entre más datos haya en proceso y siendo mantenidos, más poderoso es el sistema requerido.
Usos de la minería de datos
La minería de datos es muy útil en los siguientes dominios:
ü Análisis y gestión del mercado
ü Análisis empresarial y gestión de riesgos
ü Detección de fraude
Aparte de estos, la minería de datos también se puede utilizar en las áreas de control de producción, retención de clientes, exploración científica, deportes, astrología y navegación web en Internet.
Evaluación de patrones de minería de datos
Los patrones, las correlaciones y las relaciones identificadas mediante técnicas de extracción y minería de datos se inspeccionan, evalúan y analizan. La evaluación se realiza mediante el uso de parámetros o medidas de "interés" para determinar qué patrones son realmente interesantes y relevantes o lo suficientemente impactantes como para convertirse en conocimiento útil.
La interpretación en este paso marcará formalmente la transformación de una mera información en una "bolsa de conocimiento" completa.
Presentación de conocimiento
El conocimiento resultante de la evaluación e interpretación ahora tendrá que ser presentado a los interesados. La presentación se realiza generalmente a través de técnicas de visualización y otros mecanismos de representación del conocimiento.
Una vez presentado, el conocimiento puede, o será, usado para tomar decisiones comerciales acertadas.
Nombre del proyecto de aplicación de ka minería de datos
|
Campo de aplicación
|
Características
|
Técnica aplicada (redes neuronales, algoritmos genéticos, etc)
|
GOOGLE MAPS
|
UBICACIÓN, IMÁGENES Y TRAFICO EN TIEMPO REAL
|
Para representar el globo terráqueo en un mapa bidimensional se utilizan proyecciones, siendo una de las más utilizadas la Proyección de Mercator que se basa en el modelo ideal que trata a la tierra como un globo hinchable que se introduce en un cilindro y que empieza a inflarse ocupando el volumen del cilindro e imprimiendo el mapa en su interior. Este cilindro cortado longitudinalmente y ya desplegado sería el mapa.
Aunque Google Maps proporciona distintas vistas y proyecciones de mapas, vamos a utilizar para la explicación de nuestro ejemplo la vista normal de mapas con la proyección de mercator. Para esta proyección, Google proporciona 18 niveles de zoom distintos. Para el nivel más bajo ( zoom 0 ), el mapa se compone de 1x1 imágenes y para el nivel más alto ( zoom 17 ), el mapa completo del mundo se compone de 131.072x131.072 imágenes, y como cada imagen ocupa unos 10 Kb, el espacio total necesario que Google necesita para almacenar todas las imágenes del mapa con todos los niveles de zoom, es de aproximadamente 217.812 TB ( Terabytes ). ¿ Qué hace Google para mostrar tan rapidamente los mapas, si la cantidad de imágenes necesarias es, como hemos visto, gigantesca... ?. Pues como ya hemos comentado, divide el mapa completo en pequeñas imágenes cuadradas ( tiles ) con formato png y con un tamaño fijo de 256x256 pixels, y nos sirve únicamente aquellas que necesitamos para poder ver la región del mundo donde nos encontramos y el nivel de zoom que estamos empleando.
Los detalles internos de como se realiza este proceso, los veremos en otro post, ahora lo que nos interesa es ver como el acceso a estos mosaicos de imágenes, se puede hacer mediante una simple url con unos cuantos parámetros y un ingenioso sistema de codificación de los mismos.
Donde:
• mt0 : Servidor desde donde se descargan las imágenes. Google utiliza cuatro servidores mt0 - mt3 para balancear la carga de la petición de imágenes.
• x=0 : Coordenada X de la imagen.
• y=0 : Coordenada Y de la imagen.
• zoom=17 : Factor de zoom que queremos emplear.
Como ya hemos explicado anteriormente, el factor de zoom va desde el valor 0 ( máxima distancia ) hasta el valor 17 ( máxima definición ). Por ejemplo, para un factor de zoom de 17, el mapa de todo el mundo se compone de una sola imagen cuyas coordenas son x=0 e y=0. A un factor de zoom de 16, el mundo se divide en 2x2 imágenes cuyas coordenadas deben ser 0<=x<=1 e 0<=y<=1, a partir de ahí, y para cada nivel de zoom que vayamos ampliando iremos a su vez dividiendo cada imagen en otras 4 imágenes siempre del mismo tamaño 256x256 pixeles. De esta forma si queremos saber el número de imágenes que tenemos para cada nivel de zoom, solo tenemos que aplicar la fórmula: 2^(17-zoom). El problema que aparece ahora es que para localizar cualquier punto en la esfera terrestre, se utiliza un sistema conocido como Sistema de Coordenadas Geográficas.
El sistema de coordenadas geográficas expresa todas las posiciones sobre la tierra usando dos de las tres coordenadas de un sistema de Coordenadas Esféricas que está alineado con el eje de rotación de la tierra. Este define dos ángulos medidos desde el centro de la Tierra:
• La latitud mide el ángulo entre cualquier punto y el ecuador. Las líneas de latitud se llaman paralelos y son círculos paralelos al ecuador en la superficie de la tierra.
• La longitud mide el ángulo a lo largo del ecuador desde cualquier punto de la tierra. Se acepta que Greenwich en Londres es la longitud cero. Las líneas de longitud son círculos máximos que pasan por los polos y se llaman meridianos.
Combinando estos dos ángulos, se puede expresar la posición de cualquier punto de la superficie de la Tierra. El problema ahora es cómo podemos trasladar los valores de latitud y longitud que se emplean habitualmente para posicionar cualquier punto en el globo terráqueo, a las coordenas x e y que emplea google para identificar los grupos de imágenes que componen el mapa que deseamos ver.
|
Para ello podemos utilizar este sencillo algoritmo, que nos proporciona las coordenas x e y para la localización de las imágenes del mapa a componer a partir de la longitud, la latitud y el factor de zoom al que queremos ver dicho mapa:
// Ajustamos latitud al rango 0º (Norte) a 180º(Sur)
// en vez de el estándar 90º (Norte) a -90º(Sur)
latitud = 90 - latitud;
// Ajustamos longitud al rango 0º a 360
// en vez de el estándar 180º a -180º
longitud = 180 + longitud;
// Tamaño de la imagen a partir del factor de zoom
double tamañoImgLatitud = 180 / ( pow ( 2, ( 17 - zoom ) ) );
double tamañoImgLongitud = 360 / ( pow ( 2, ( 17 - zoom ) ) );
// Coordenadas que utiliza Google para imagen del mapa
int coordenadaX = ( int )( longitud / tamañoImgLongitud );
int coordenadaY = ( int )( latitud / tamañoImgLatitud );
En realidad este algoritmo no está completo ya que no cubre la totalidad del globo terráqueo. Debido a la proyección de mercator, el algoritmo que hemos visto debe ser modificado ya que el espacio entre dos paralelos no es constante, de forma que el ángulo descrito por una imagen del mapa depende de su posición vertical.
|
Nombre del proyecto de aplicación de ka minería de datos
|
Campo de aplicación
|
Características
|
Técnica aplicada (redes neuronales, algoritmos genéticos, etc)
|
NETFLIX
|
Películas, streaming
ENTRETENIMIENTO
|
Netflix es uno de los gigantes de vídeo bajo demanda, una de las empresas que más ha crecido en los últimos años. Una empresa que ha sabido aprovechar tanto la necesidad de los usuarios como el cambio de paradigma tecnológico en el que las televisiones y los móviles se han convertido en ordenadores y en el que el ancho de banda ha crecido exponencialmente hasta permitir la descarga y retransmisión de contenido multimedia de una manera rápida y estable.
También se han beneficiado de la aparición de la analítica digital, cuyo principal objetivo es conseguir que las compañías obtengan información relevante sobre sus clientes y utilizar esta información para optimizar sus estrategias de marketing y ofrecer un mejor producto. La analítica proporciona a las compañías la información que necesitan para tomar mejores decisiones tanto a nivel cualitativo como cuantitativo.
La respuesta es que Netflix, a día de hoy, es una compañía orientada al dato. Y aquí os explicamos cómo lo hace.
La principal ventaja de las compañías de vídeo bajo demanda –o streaming– frente a la televisión tradicional, se basa justo en lo comentábamos al principio sobre el objetivo de la analítica digital: la capacidad para capturar y analizar información de sus usuarios para tomar decisiones estratégicas.
Algunos ejemplos de la información que Netflix tiene sobre el uso de su plataforma:
Cuántas veces se ha pausado un capítulo.
Cuántas veces se ha avanzado o retrocedido en un capítulo.
Qué fechas suelen ser en las que más se ve un determinado tipo de serie.
A qué hora se suelen consumir determinados contenidos.
Desde dónde se visualizan esos contenidos.
Qué tipo de dispositivo se utiliza más o qué franja de edad utiliza más un tipo de dispositivo determinado.
Cuándo se deja de ver una serie o película y nunca se retoma.
Las puntuaciones obtenidas por los diferentes programas y qué personas los valoran más o menos (se realizan unos 4 millones de puntuaciones al día).
Los criterios de búsqueda (se hacen unos 3 millones de búsquedas diarias).
Usuarios que han comenzado una serie y la han terminado.
Y un largo etcétera.
Para hacerse una idea de la magnitud y el detalle al que llegan los datos que utiliza Netflix en sus análisis, debemos saber que Netflix llega al punto de extraer información de su propio contenido a través de capturas de pantalla y de sonido: el tipo de colores o sonidos que funcionan mejor con determinados usuarios, el tipo de fotografía, los escenarios… Algo que a priori puede parecer irrelevante pero está claro que a todos nos gustan más unas series u otras más allá de sus protagonistas o trama.
|
Para ello, el equipo de Netflix hizo un arduo trabajo técnico (en el que continúan invirtiendo) para crear un algoritmo de recomendación casi perfecto. Dicho algoritmo se alimenta de la información que le facilitas a través de tu perfil. «Sabemos a qué hora del día se conecta nuestro cliente, cuánto tiempo pasa en la plataforma, sabemos qué vio antes y qué después; incluso sabemos si lo hizo desde el ordenador, desde una tablet o el móvil. Tenemos mucha información», explicó Todd Yellin, vicepresidente de producto de la compañía, en «See What's Next», evento en el que Netflix presentó sus principales novedades para este año.
«Cada persona es diferente y este algoritmo aprende de las costumbres de consumo de esta para poder determinar que es lo que te gusta y así diferencias los contenidos que tenemos que mostrarte», comentó. Para ilustrar este razonamiento, Yellin recordó que dentro de cada cuenta puede haber hasta cuatro perfiles. «Y suelen ser muy diferentes porque no es lo mismo lo que me gusta a mí que le gusta a mi mujer o a mi hija, y eso que a veces vemos alguna que otra serie juntos», añadió.
Una vez que Netflix conoce los gustos que has mostrado en tu perfil, deja el «trabajo sucio» a su algoritmo: «Gracias a esos datos, podemos encajar el perfil de cada uno en lo que llamamos 'comunidad'». Se tratan de las distintos agrupaciones de contenido que vemos en nuestro perfil. «Cada comunidad suele corresponder a los subgéneros que el cliente suele ver. Como, por ejemplo, terror adolescente que puede incluir series como ' Black Mirror', ' Stranger Things' o ' The Innocents'», continuó.
|
Nombre del proyecto de aplicación de la minería de datos
|
Campo de aplicación
|
Características
|
Técnica aplicada (redes neuronales, algoritmos genéticos, etc)
|
SPOTIFY
|
Reproducción de música vía streaming. Cuenta con un modelo de negocio «premium», un servicio gratuito básico y con publicidad; pero con características adicionales, con una mejor calidad de audio, a través de una suscripción de pago. Permite escuchar en «modo radio», buscando por artista, álbum o listas de reproducción creadas por los propios usuarios.
|
El programa se lanzó el 7 de octubre de 2008 al mercado europeo, mientras que su implantación en otros países se realizó a lo largo de 2009.2 Está disponible para los sistemas operativos Microsoft Windows, Mac OS X, Linux, Windows Phone, Symbian, iOS, Android.
La empresa sueca, que tiene su sede en Estocolmo, Suecia, ha firmado acuerdos con las discográficas Universal Music, Sony Music, EMI Music (desaparecida en 2012), Hollywood Records, Interscope Records y Warner Music, entre otras.3 A abril de 2019, el servicio cuenta con 217 millones de usuarios activos, de los cuales 100 millones son usuarios de pago.4
El 21 de noviembre de 2019 anunciaron la primera ceremonia de premios llamada Spotify Awards mediante Twitter.56
Modo de funcionamiento y requisitos del sistema
Sede de Spotify en Humlegårdsgatan, Estocolmo, Suecia.
Spotify ofrece transferencia de archivos de audio por Internet a través de la combinación de servidores dedicados al streaming y en la transferencia de red de pares (P2P) en la que participan los usuarios. Una conexión a Internet de 256 kbit/s es suficiente, y la tasa de bits de las pistas es de 320 kbit/s. Los archivos de audio se pueden reproducir bajo demanda, como si estuvieran en el disco duro del usuario. Las canciones se guardan en la caché del software para evitar consumir más ancho de banda al repetir las canciones una y otra vez. Utiliza el códec de audio Vorbis (Ogg).
Los usuarios en modo premium acceden un nivel de calidad de audio superior (q9). El contenido de la caché del software se basa en un índice que sirve para que Spotify conecte con el servicio. Este índice se utiliza para informar a otros clientes sobre otros usuarios que pueden conectarse a los datos para que se reproduzcan las pistas que desea escuchar.
Se hace por cada cliente que utiliza el programa; al inicio, actuando como un servidor para escuchar las conexiones entrantes de otros usuarios de Spotify así como la conexión de forma intuitiva a otros usuarios para el intercambio de datos en caché, según proceda. Actualmente no hay datos oficiales de los desarrolladores acerca de cuántas conexiones y la cantidad de ancho de banda que ofrece cada usuario al sistema; el software no ofrece ninguna forma para que el usuario pueda configurar estos parámetros.
Los requisitos del sistema son, al menos, Mac OS X 10.7, Windows Vista o superior. También es posible ejecutar el programa en GNU/Linux. El tamaño de la caché lo puede limitar el usuario y se puede elegir la ubicación de memoria de caché. Se recomienda para la caché por lo menos 1 GB de espacio libre.
El usuario debe configurar una cuenta para poder utilizar la aplicación. Esta cuenta puede utilizarse en varios dispositivos, pero solo puede reproducir música en un dispositivo a la vez.
|
Redes neuronales auditivas
En Spotify cada usuario tiene una playlist personal “Tu descubrimiento semanal” en función de la música escuchada recientemente que funciona mediante algoritmos capaces de relacionar los gustos personales a los de otros. Lo cual puede conllevar al efecto burbuja, en el cual la música es automáticamente elegida para nosotros y nos impide descubrir más allá. Por otro lado la recopilación de datos sobre lo que escucha cada usuario puede ser utilizado para estrategias de marketing (por ejemplo para atraer a determinados grupos)35. Se desconocen estos algoritmos y el uso que hace Spotify de dichos datos a pesar de que los sociólogos escritores de “Spotify Teardown: Inside the Black Box of Streaming Music” hayan intentado entenderlos. El uso del Big data es algo que preocupa a muchos usuarios de productos en la red hoy en día. 36
|
Conclusión
Como hemos analizado La analítica cognitiva posee un abanico de aplicaciones muy amplio. Por ejemplo, esta tecnología ayuda a los departamentos de marketing de numerosas empresas siendo capaz de recomendar productos de forma personalizada según las necesidades de cada cliente, así como configurar una central de atención al cliente que brinda un trato completamente personalizado a cada usuario a través de sistemas automatizados y con una alta velocidad de respuesta.
La cognición es la facultad de los seres humanos para captar información, procesarla, aprender de ella y tomar decisiones. La componen procesos como el aprendizaje, la atención, el razonamiento, la resolución de problemas, el procesamiento del lenguaje, la memoria, entre otros. Es por ello que hoy por hoy se han desarrollado diferentes técnicas para facilitar las necesidades que requerimos en la big data
Se analizaron a 3 aplicaciones que nos permite analizar aplicación, función y algoritmos de una de las mas importantes como Google maps, Spotify y Netflix
En el mundo de los negocios, la cognición permite entender a los clientes, optimizar y mejorar productos o servicios de acuerdo a las necesidades de los mismos, como también medir efectivamente las relaciones directas con los públicos de interés. Hoy por hoy, las tecnologías y los actuales sistemas de cómputo han simplificado el dar pasos en pro de comprender las expectativas de clientes y ofrecer soluciones más acertadas al interpretar el comportamiento humano.
Para que nos podamos hacer una idea de la magnitud y potencial de lo que os hemos contando y de la importancia de la analítica digital en este tipo de plataformas y formatos pensad en lo siguiente.
REFERENCIAS BIBLIOGRAFICAS
Black M. J., Bienenstocky E., Donoghuey J.P, Serruyay M., Wuz W., Gaoz Y. Connecting Brains with Machines: The Neural Control of 2D Cursor Movement. 1st International IEEE/EMBS Conference on Neural Engineering, pp. 580-583, Capri, Italy, March, 2003.
Kelly S., Burke D., Chazal D., Reilly R. Parametric models and Classification for Direct Brain Interfaces. Proceedings of the Irish Signal and Systems Conference, Cork, Ireland, June 2002.
Curran E., Stokes M. Learning to control brain activity: A review of the production and control of EEG components for driving brain-computer interface (BCI) systems. Brain and Cognition, 51, 326-336, 2003.
Samantha Murphy (22 de mayo de 2012). «Spotify offers Australians 16 million tracks for free – with ads»
Capital inteligente Katherine Alejandra Blandón López Analista de Investigación y Desarrollo Logístico / Renting Colombi





Felicidades ! bien realizada la investigación y la presentación en clase.
ResponderBorrar