Música e Inteligencia Artificial.
+9
Angel Canor
Celsius
Enrike
Charly Guitar Watson
Bechstein
mvdventura
pablopi
Flick4
DrFunk
13 participantes
AUDIO PLANET :: OTROS :: Planeta Cultura
Página 5 de 6.
Página 5 de 6. • 1, 2, 3, 4, 5, 6
Música e Inteligencia Artificial.
Hola.
Pablo Gervás Gómez-Navarro, profesor de la Facultad de Informàtica e Instituto de Tecnología del Conocimiento de la Complutense de Madrid, trabaja en modelos computacionales para la creación literaria.
En abril del año pasado, el equipo de Gervás participó en el Festival Poetas de Matadero, donde presentó una antología de poemas generados por el programa SPAR (Small Poem Automatic Rhymer).
"A día de hoy, se están explorando soluciones tecnológicas para aprovechar el potencial de la Inteligencia Artificial (IA) en procesos creativos de muchas àreas. Se aplica IA directamente en música, arte, juegos, poesía y narrativa. En muchos casos los resultados producidos son fruto de una simbiosis entre las capacidades de la computadora y las del hombre", dice Pablo Gervás.
Otro proyecto en el que ha trabajado Gervás es en el musical "Beyond the Fence", que se realizó conjuntamente con grupos de investigaciòn de varias universidades europeas y en el que usó el programa ProperWryter para desarrollar el argumento de la obra.
Para Gervás, el impacto de las tecnologìas en los procesos creativos siempre ha sido muy grande, incluso cuando éstas no eran digitales. Una de sus referencias es el juego Façade, de Mateas y Stern, pionero en este tipo de trabajos.
En "El próximo paso. La vida exponencial" (BBVA/OpenMind), Ramón López de Mántaras, director del Instituto de Investigación en IA, se refiere a la creatividad en las artes visuales poniendo como ejemplo el sistema robòtico AA-RON, desarrollado por el artista y programador Harold Cohen.
El ingenio es capaz de coger un pincel con su brazo y pintar en un lienzo sin ayuda.
"Sus conocimientos no son como los de los humanos, basados en la experiencia, pero han sido adquiridos de forma acumulativa", precisa Mántaras, que en la misma tribuna enumera sistemas de improvisación musical como Flavors Band, GenJam, Franklin, Thom y Wessel.
"La IA ha desempeñado un papel crucial en la historia de la música por ordenador casi desde sus inicios, en la década de 1950", recuerda el científico.
El número de enero de la revista Telos (editada por la Fundación Teléfonica), además de la entrevista a la antropóloga cíborg Amber Case (que ocupa su portada), destaca la presentación, en el I Festival Internacional de Robótica de Milán, de Yumi, un robot humanoide que dirigiò nada menos que a la Orquesta Filarmónica de Lucca en el Teatro Verdi de Pisa imitando los movimientos de su director, Andrea Colombini.
La IA tiene tambièn mucho que decir en el mundo de la escena. Uno de los pioneros es Marcel.lí Antúnez. El cofundador de la Fura dels Baus realizó su primer robot junto a Sergi Jordá y lo bautizaron como JoAn l'home de Carn.
"Tenía comportamientos simples pero 'randomizados', como si tuviera su propia inteligencia", explica el director, creador también de la performance Epizoo, un ingenio que permitía al espectador controlar su cuerpo a travès de un sistema mecatrónico creado con un robot corporal de forma exoesquelética, un ordenador, un dispositivo de control mecànico y una pantalla de proyección vertical.
Pero, ¿puede hablarse de un comportamiento artístico de las computadoras?...
Antúnez apunta a que ciertos errores de los programas, como el llamado Glitch, pueden considerarse comportamientos artìsticos y por tanto una forma de IA: "Desde esta perspectiva quizá las máquinas puedan establecerse como creadores independientes..."
Artistas como Calder, Jean Tinguely y Stelarc llevaron a Antúnez a trabajar con estos mecanismos, pues en el origen de sus inquietudes estuvieron Adam Smith y "La riqueza de las naciones", y el inventor escocès James Watt: "Sin saberlo, fueron los padres de la preponderancia de las máquinas".
Muy vinculado tambièn a la Fura (firmó el famoso Hércules de la ceremonia de los JJOO de Barcelona 92), Roland Olbeter, deslumbrado por "Los viajes de Gullivert", de Jonathan Swift, presentó hace 2 años en el Grec "El sueño de Gulliver", una ópera mecánica para marionetas robotizadas en la que hasta la mùsica, compuesta por Elena Kats-Chernin, era interpretada por instrumentos robotizados, algunos de ellos en directo.
"El montaje se debate entre lo grande y lo pequeño, entre la verdad y la mentira", explica Olbeter, capaz de dotar de emoción a sus criaturas.
La tecnología interactiva es tambièn el material de creación para la compañía Kònic Thtr, que lleva investigando con esta forma de expresión desde los años 90.
Danza, performance, música y artes visuales se mezclan en sus obras con las nuevas herramientas digitales. Es lo que Rosa Sánchez y Alain Baumann, director artístico y tecnológico, respectivamente, llaman "escena aumentada".
Han trabajado con el Instituto de Investigación en IA de Barcelona (IIIA) y el IRCAM de París.
"Mur.muros" o "Before the Beep" son algunas de sus propuestas.
Tanto Sánchez como Baumann han tomado como referencia los trabajos del ingeniero portuguès Vitorino Ramos, que a su vez ha colaborado con varios artistas para desarrollar robots que pintan, como los realizados por Leonel Moura.
Otra referencia son las creaciones de Christa Sommerer y Laurent Mignonneau, y en concreto "A-Volve", de 1994.
El director Álex Peña utilizó tambièn la IA para "Máquinahamlet", instalación que pudo verse en el Teatro Central de Sevilla y en la que empleó para las voces la herramienta Dictado y habla del sistema IOS.
Hasta el director de cine Lars Von Trier acaba de incorporar a sus rodajes el sistema Autovisión, una forma de operar con la cámara capaz de controlar los encuadres.
"Ya no los controlo yo, lo hace el ordenador", ha señalado el director de "Bailar en la oscuridad".
La IA es ya una realidad entre nuestros creadores.
Desarrolla, cuando no sustituye, nuestras manifestaciones artísticas, creando nuevos caminos en la forma de expresarnos.
Geoffrey Hinton, Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Informaciòn y Comunicación de 2017, se pregunta en la revista Ábaco por qué tenemos sueños: "Sospecho que hay una buena razón computacional, y cuando la descubramos podremos hacer redes neuronales artificiales que aprendan mucho mejor".
Ése será el próximo "sueño", el gran desafío del ser humano.
Un saludo.
Pablo Gervás Gómez-Navarro, profesor de la Facultad de Informàtica e Instituto de Tecnología del Conocimiento de la Complutense de Madrid, trabaja en modelos computacionales para la creación literaria.
En abril del año pasado, el equipo de Gervás participó en el Festival Poetas de Matadero, donde presentó una antología de poemas generados por el programa SPAR (Small Poem Automatic Rhymer).
"A día de hoy, se están explorando soluciones tecnológicas para aprovechar el potencial de la Inteligencia Artificial (IA) en procesos creativos de muchas àreas. Se aplica IA directamente en música, arte, juegos, poesía y narrativa. En muchos casos los resultados producidos son fruto de una simbiosis entre las capacidades de la computadora y las del hombre", dice Pablo Gervás.
Otro proyecto en el que ha trabajado Gervás es en el musical "Beyond the Fence", que se realizó conjuntamente con grupos de investigaciòn de varias universidades europeas y en el que usó el programa ProperWryter para desarrollar el argumento de la obra.
Para Gervás, el impacto de las tecnologìas en los procesos creativos siempre ha sido muy grande, incluso cuando éstas no eran digitales. Una de sus referencias es el juego Façade, de Mateas y Stern, pionero en este tipo de trabajos.
En "El próximo paso. La vida exponencial" (BBVA/OpenMind), Ramón López de Mántaras, director del Instituto de Investigación en IA, se refiere a la creatividad en las artes visuales poniendo como ejemplo el sistema robòtico AA-RON, desarrollado por el artista y programador Harold Cohen.
El ingenio es capaz de coger un pincel con su brazo y pintar en un lienzo sin ayuda.
"Sus conocimientos no son como los de los humanos, basados en la experiencia, pero han sido adquiridos de forma acumulativa", precisa Mántaras, que en la misma tribuna enumera sistemas de improvisación musical como Flavors Band, GenJam, Franklin, Thom y Wessel.
"La IA ha desempeñado un papel crucial en la historia de la música por ordenador casi desde sus inicios, en la década de 1950", recuerda el científico.
El número de enero de la revista Telos (editada por la Fundación Teléfonica), además de la entrevista a la antropóloga cíborg Amber Case (que ocupa su portada), destaca la presentación, en el I Festival Internacional de Robótica de Milán, de Yumi, un robot humanoide que dirigiò nada menos que a la Orquesta Filarmónica de Lucca en el Teatro Verdi de Pisa imitando los movimientos de su director, Andrea Colombini.
La IA tiene tambièn mucho que decir en el mundo de la escena. Uno de los pioneros es Marcel.lí Antúnez. El cofundador de la Fura dels Baus realizó su primer robot junto a Sergi Jordá y lo bautizaron como JoAn l'home de Carn.
"Tenía comportamientos simples pero 'randomizados', como si tuviera su propia inteligencia", explica el director, creador también de la performance Epizoo, un ingenio que permitía al espectador controlar su cuerpo a travès de un sistema mecatrónico creado con un robot corporal de forma exoesquelética, un ordenador, un dispositivo de control mecànico y una pantalla de proyección vertical.
Pero, ¿puede hablarse de un comportamiento artístico de las computadoras?...
Antúnez apunta a que ciertos errores de los programas, como el llamado Glitch, pueden considerarse comportamientos artìsticos y por tanto una forma de IA: "Desde esta perspectiva quizá las máquinas puedan establecerse como creadores independientes..."
Artistas como Calder, Jean Tinguely y Stelarc llevaron a Antúnez a trabajar con estos mecanismos, pues en el origen de sus inquietudes estuvieron Adam Smith y "La riqueza de las naciones", y el inventor escocès James Watt: "Sin saberlo, fueron los padres de la preponderancia de las máquinas".
Muy vinculado tambièn a la Fura (firmó el famoso Hércules de la ceremonia de los JJOO de Barcelona 92), Roland Olbeter, deslumbrado por "Los viajes de Gullivert", de Jonathan Swift, presentó hace 2 años en el Grec "El sueño de Gulliver", una ópera mecánica para marionetas robotizadas en la que hasta la mùsica, compuesta por Elena Kats-Chernin, era interpretada por instrumentos robotizados, algunos de ellos en directo.
"El montaje se debate entre lo grande y lo pequeño, entre la verdad y la mentira", explica Olbeter, capaz de dotar de emoción a sus criaturas.
La tecnología interactiva es tambièn el material de creación para la compañía Kònic Thtr, que lleva investigando con esta forma de expresión desde los años 90.
Danza, performance, música y artes visuales se mezclan en sus obras con las nuevas herramientas digitales. Es lo que Rosa Sánchez y Alain Baumann, director artístico y tecnológico, respectivamente, llaman "escena aumentada".
Han trabajado con el Instituto de Investigación en IA de Barcelona (IIIA) y el IRCAM de París.
"Mur.muros" o "Before the Beep" son algunas de sus propuestas.
Tanto Sánchez como Baumann han tomado como referencia los trabajos del ingeniero portuguès Vitorino Ramos, que a su vez ha colaborado con varios artistas para desarrollar robots que pintan, como los realizados por Leonel Moura.
Otra referencia son las creaciones de Christa Sommerer y Laurent Mignonneau, y en concreto "A-Volve", de 1994.
El director Álex Peña utilizó tambièn la IA para "Máquinahamlet", instalación que pudo verse en el Teatro Central de Sevilla y en la que empleó para las voces la herramienta Dictado y habla del sistema IOS.
Hasta el director de cine Lars Von Trier acaba de incorporar a sus rodajes el sistema Autovisión, una forma de operar con la cámara capaz de controlar los encuadres.
"Ya no los controlo yo, lo hace el ordenador", ha señalado el director de "Bailar en la oscuridad".
La IA es ya una realidad entre nuestros creadores.
Desarrolla, cuando no sustituye, nuestras manifestaciones artísticas, creando nuevos caminos en la forma de expresarnos.
Geoffrey Hinton, Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Informaciòn y Comunicación de 2017, se pregunta en la revista Ábaco por qué tenemos sueños: "Sospecho que hay una buena razón computacional, y cuando la descubramos podremos hacer redes neuronales artificiales que aprendan mucho mejor".
Ése será el próximo "sueño", el gran desafío del ser humano.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
La IA ya forma parte de nuestras vidas. Muchos de los productos y servicios en nuestras rutinas usan IA: buscadores de internet, medios sociales, plataformas de mùsica como Spotify o de comida a domicilio como La Nevera Roja, mòviles, el Applewatch o el termostato de Google para regular la temperatura en casa.
En la medicina se utilizan servicios de IA para precisar el tipo de cáncer en el diagnóstico o en la quimioterapia recetada, en el sector financiero para calcular la solvencia de quien solicita un prèstamo, para la detección automática de fraude, etc...
El grado de precisión con el que dicha tecnología puede desempeñar tareas concretas y la semántica de uso humanizante que la acompaña (IA, redes neuronales artificiales, aprendizaje de máquinas) está generando miedo, incertidumbre y duda.
¿Qué beneficios puede aportar esta tecnología a nuestra sociedad?...¿Dónde se debería aplicar?...¿Van a alzarse contra el hombre e intentar dominarlo?...
La IA no es inteligente. La IA es un proceso de automatización que se genera programando algoritmos y alimentándolos con grandes bases de datos muy heterogéneos, denominados Big Data.
Los algoritmos se podrían comparar en cierto grado con una receta de cocina y el Big Data con los ingredientes. El algoritmo, al igual que la receta, depende de sus ingredientes para hacer un buen pastel. Y como toda receta, cada algoritmo tiene su toque personal.
Y ahí yace uno de los riesgos más sutiles: la tecnología creada ni es buena ni es mala, pero tampoco es neutral.
Los algoritmos son creados por personas y son un lenguaje con el que se formalizan cadenas de órdenes y comandos. Como todo lenguaje, es extremadamente subjetivo y contiene prejuicios de los que tal vez el equipo de programación no es consciente.
Con todo ello puede ocurrir que el proceso algorítmico programado para reclutar personal en una compañía discrimine a mujeres o a minorías. Si para determinar que alguien tiene capacidad de liderazgo solamente se consideran candidatos con experiencia en cargos de dirección (en vez de otras características adicionales como por ejemplo cualidades de pensamiento analítico y estratègico), se discriminará indirectamente a mujeres, ya que éstas siguen teniendo menos experiencia como líderes.
Los proyectos de ciudad inteligente organizan la infraestructura de una ciudad, sea el transporte público o la distribución de electricidad. Si dichos procesos se organizan únicamente con el mero criterio de la eficiencia y no se consideran otros aspectos como la equidad, las zonas con habitantes menos pudientes acabarán siendo discriminadas.
Ello se debe a que los barrios màs ricos suelen estar más digitalizados y la base de datos con la que operan dichos programas es mayor que la de zonas menos acaudaladas. Al poseer más información los programas pueden calcular con más rigor las necesidades de los habitantes de ese barrio.
Con procesos algorítmicos se pueden encasillar a personas en perfiles de los que les puede resultar difícil salir, puesto que no son conscientes de estar siendo manipulados en una determinada direcciòn.
Citando al economista Paul Krugman: compra online y encontrarás todo lo que necesitas. Ve a una librerìa y encontrarás lo que no estás buscando.
Pese a la previa alegoría culinaria, el fin del proceso algorítmico no es un pastel, sino ver con qué probabilidad determinados patrones de comportamiento o acción se repiten y están interrelacionados.
Es la idea de que el futuro es una repetición de lo que hemos hecho en el pasado.
Los procesos algorítmicos son incapaces de recontextualizar patrones de comportamiento pasado ante nuevas circunstancias. Ello explica por qué el progreso en la programación de robots destinados a asistir a pacientes sigue siendo bastante limitado.
Por otro lado esta tecnología es consistente, a diferencia del ser humano. Según un estudio del psicólogo Daniel Kahneman publicado a fines de diciembre del 2016, las profesiones en las que se deben emitir juicios subjetivos como los ejecutivos, banqueros o jueces, se caracterizan por un alto grado de inconsistencia.
Aspectos como el mal tiempo, el no haber comido o que el equipo preferido haya perdido el último partido pueden influir en las decisiones de un juez.
La IA puede detectar este tipo de comportamiento y ayudar al individuo a reconsiderar sus decisiones. El sector público puede utilizarlo para organizar la estructura del país de manera más eficiente y equitativa.
La automatización tiene un doble filo: con algoritmos podemos detectar los patrones de discriminación más sutiles, y adentrarnos en los comportamientos y aspectos de la desigualdad que pasan más desapercibidos.
Asímismo, la automatización ambiciona democratizar el acceso a servicios de asistencia con el uso de sirvientes mecánicos como programas de software o robots, cada vez más asequibles para un mayor número de personas. Ello puede librar al ser humano de tareas repetitivas, proporcionándole libertad para dedicar mayor atención a actividades más complejas.
Por otro lado, el delegar tareas a un software o robot implica obligatoriamente la pérdida de espontaneidad y autonomía en esas tareas, el encasillamiento voluntario en perfiles basados en comportamientos.
La IA esconde un gran potencial para el ser humano y la sociedad en general, pero también grandes riesgos.
Solamente podremos disfrutar sus beneficios si nos aseguramos un control constante y democrático.
Fin del artículo publicado esta semana por Lorena Jaume-Palasí: directora de AlgorithmWatch y profesora de la Universidad de Múnich.
Un saludo.
La IA ya forma parte de nuestras vidas. Muchos de los productos y servicios en nuestras rutinas usan IA: buscadores de internet, medios sociales, plataformas de mùsica como Spotify o de comida a domicilio como La Nevera Roja, mòviles, el Applewatch o el termostato de Google para regular la temperatura en casa.
En la medicina se utilizan servicios de IA para precisar el tipo de cáncer en el diagnóstico o en la quimioterapia recetada, en el sector financiero para calcular la solvencia de quien solicita un prèstamo, para la detección automática de fraude, etc...
El grado de precisión con el que dicha tecnología puede desempeñar tareas concretas y la semántica de uso humanizante que la acompaña (IA, redes neuronales artificiales, aprendizaje de máquinas) está generando miedo, incertidumbre y duda.
¿Qué beneficios puede aportar esta tecnología a nuestra sociedad?...¿Dónde se debería aplicar?...¿Van a alzarse contra el hombre e intentar dominarlo?...
La IA no es inteligente. La IA es un proceso de automatización que se genera programando algoritmos y alimentándolos con grandes bases de datos muy heterogéneos, denominados Big Data.
Los algoritmos se podrían comparar en cierto grado con una receta de cocina y el Big Data con los ingredientes. El algoritmo, al igual que la receta, depende de sus ingredientes para hacer un buen pastel. Y como toda receta, cada algoritmo tiene su toque personal.
Y ahí yace uno de los riesgos más sutiles: la tecnología creada ni es buena ni es mala, pero tampoco es neutral.
Los algoritmos son creados por personas y son un lenguaje con el que se formalizan cadenas de órdenes y comandos. Como todo lenguaje, es extremadamente subjetivo y contiene prejuicios de los que tal vez el equipo de programación no es consciente.
Con todo ello puede ocurrir que el proceso algorítmico programado para reclutar personal en una compañía discrimine a mujeres o a minorías. Si para determinar que alguien tiene capacidad de liderazgo solamente se consideran candidatos con experiencia en cargos de dirección (en vez de otras características adicionales como por ejemplo cualidades de pensamiento analítico y estratègico), se discriminará indirectamente a mujeres, ya que éstas siguen teniendo menos experiencia como líderes.
Los proyectos de ciudad inteligente organizan la infraestructura de una ciudad, sea el transporte público o la distribución de electricidad. Si dichos procesos se organizan únicamente con el mero criterio de la eficiencia y no se consideran otros aspectos como la equidad, las zonas con habitantes menos pudientes acabarán siendo discriminadas.
Ello se debe a que los barrios màs ricos suelen estar más digitalizados y la base de datos con la que operan dichos programas es mayor que la de zonas menos acaudaladas. Al poseer más información los programas pueden calcular con más rigor las necesidades de los habitantes de ese barrio.
Con procesos algorítmicos se pueden encasillar a personas en perfiles de los que les puede resultar difícil salir, puesto que no son conscientes de estar siendo manipulados en una determinada direcciòn.
Citando al economista Paul Krugman: compra online y encontrarás todo lo que necesitas. Ve a una librerìa y encontrarás lo que no estás buscando.
Pese a la previa alegoría culinaria, el fin del proceso algorítmico no es un pastel, sino ver con qué probabilidad determinados patrones de comportamiento o acción se repiten y están interrelacionados.
Es la idea de que el futuro es una repetición de lo que hemos hecho en el pasado.
Los procesos algorítmicos son incapaces de recontextualizar patrones de comportamiento pasado ante nuevas circunstancias. Ello explica por qué el progreso en la programación de robots destinados a asistir a pacientes sigue siendo bastante limitado.
Por otro lado esta tecnología es consistente, a diferencia del ser humano. Según un estudio del psicólogo Daniel Kahneman publicado a fines de diciembre del 2016, las profesiones en las que se deben emitir juicios subjetivos como los ejecutivos, banqueros o jueces, se caracterizan por un alto grado de inconsistencia.
Aspectos como el mal tiempo, el no haber comido o que el equipo preferido haya perdido el último partido pueden influir en las decisiones de un juez.
La IA puede detectar este tipo de comportamiento y ayudar al individuo a reconsiderar sus decisiones. El sector público puede utilizarlo para organizar la estructura del país de manera más eficiente y equitativa.
La automatización tiene un doble filo: con algoritmos podemos detectar los patrones de discriminación más sutiles, y adentrarnos en los comportamientos y aspectos de la desigualdad que pasan más desapercibidos.
Asímismo, la automatización ambiciona democratizar el acceso a servicios de asistencia con el uso de sirvientes mecánicos como programas de software o robots, cada vez más asequibles para un mayor número de personas. Ello puede librar al ser humano de tareas repetitivas, proporcionándole libertad para dedicar mayor atención a actividades más complejas.
Por otro lado, el delegar tareas a un software o robot implica obligatoriamente la pérdida de espontaneidad y autonomía en esas tareas, el encasillamiento voluntario en perfiles basados en comportamientos.
La IA esconde un gran potencial para el ser humano y la sociedad en general, pero también grandes riesgos.
Solamente podremos disfrutar sus beneficios si nos aseguramos un control constante y democrático.
Fin del artículo publicado esta semana por Lorena Jaume-Palasí: directora de AlgorithmWatch y profesora de la Universidad de Múnich.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Esta semana pasada 4 científicos de la Universidad de Kyoto (Guohua Shen, Tomoyasu Horikawa, Yukiyasu Kamitani y Kei Majima), dieron a conocer el logro por primera vez en la historia de que un ordenador lea la mente de una persona.
Han sido capaces de desarrollar nuevas y poderosas tècnicas de "decodificación" de los pensamientos usando complejas redes neuronales o, lo que es lo mismo...IA.
Hasta ahora, el llamado "machine learning" (la capacidad de aprendizaje de una màquina) se había utilizado para hacer escáneres cerebrales o para generar visualizaciones sencillas de los pensamientos de una persona, siempre que fueran imágenes binarias simples y en blanco y negro, como letras o formas geométricas dibujadas en un papel.
El nuevo sistema de IA permite a los ordenadores recrear objetos complejos y no solamente simples píxeles.
Durante 10 meses los 4 científicos estuvieron mostrando imágenes naturales como personas, aves o insectos a 3 voluntarios en 25 fotos distintas mientras se les medía la actividad cerebral.
Una vez escaneada toda esa actividad del cerebro, un ordenador llevó a cabo el proceso de "ingenierìa inversa", decodificando la información y usándola después para generar visualizaciones de los pensamientos de los 3 sujetos.
El resultado fue mucho mejor cuando la persona veía el objeto en directo y se escaneaba entonces su cerebro, que cuando lo pensaba sin tenerlo delante de sus ojos.
Yukiyasu Kamitani dijo: "Hemos estudiado métodos para recrear la imagen que una persona está viendo basándonos solamente en su actividad cerebral. Nuestro método anterior se basaba en suponer que una imagen solo consiste en pìxeles o formas simples. Pero se sabe que nuestro cerebro procesa la información visual extrayendo jerárquicamente diferentes niveles de características o componentes de diferentes complejidades".
Los 4 investigadores se atrevieron a hablar de que el próximo paso será el de una máquina capaz de visualizar los sueños, de la posibilidad de crear arte solo con imaginarlo, de ver las alucinaciones de un paciente psiquiátrico, o de algún no muy lejano día donde nos comunicaremos con las máquinas usando solamente el pensamiento.
Un saludo.
Esta semana pasada 4 científicos de la Universidad de Kyoto (Guohua Shen, Tomoyasu Horikawa, Yukiyasu Kamitani y Kei Majima), dieron a conocer el logro por primera vez en la historia de que un ordenador lea la mente de una persona.
Han sido capaces de desarrollar nuevas y poderosas tècnicas de "decodificación" de los pensamientos usando complejas redes neuronales o, lo que es lo mismo...IA.
Hasta ahora, el llamado "machine learning" (la capacidad de aprendizaje de una màquina) se había utilizado para hacer escáneres cerebrales o para generar visualizaciones sencillas de los pensamientos de una persona, siempre que fueran imágenes binarias simples y en blanco y negro, como letras o formas geométricas dibujadas en un papel.
El nuevo sistema de IA permite a los ordenadores recrear objetos complejos y no solamente simples píxeles.
Durante 10 meses los 4 científicos estuvieron mostrando imágenes naturales como personas, aves o insectos a 3 voluntarios en 25 fotos distintas mientras se les medía la actividad cerebral.
Una vez escaneada toda esa actividad del cerebro, un ordenador llevó a cabo el proceso de "ingenierìa inversa", decodificando la información y usándola después para generar visualizaciones de los pensamientos de los 3 sujetos.
El resultado fue mucho mejor cuando la persona veía el objeto en directo y se escaneaba entonces su cerebro, que cuando lo pensaba sin tenerlo delante de sus ojos.
Yukiyasu Kamitani dijo: "Hemos estudiado métodos para recrear la imagen que una persona está viendo basándonos solamente en su actividad cerebral. Nuestro método anterior se basaba en suponer que una imagen solo consiste en pìxeles o formas simples. Pero se sabe que nuestro cerebro procesa la información visual extrayendo jerárquicamente diferentes niveles de características o componentes de diferentes complejidades".
Los 4 investigadores se atrevieron a hablar de que el próximo paso será el de una máquina capaz de visualizar los sueños, de la posibilidad de crear arte solo con imaginarlo, de ver las alucinaciones de un paciente psiquiátrico, o de algún no muy lejano día donde nos comunicaremos con las máquinas usando solamente el pensamiento.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Uno de los actuales carros de batalla de Google es la IA, y ahora sale a la luz la creaciòn de Tacotron 2: un sistema capaz de crear voces tan realistas que son casi indistinguibles de las humanas.
Esta herramienta se basa en 2 redes neuronales:
- Una se encarga de traducir el texto en un espectrograma que represente todas las frecuencias de audio.
- Por otro lado, un programa creado por Deep Mind (empresa de innovaciòn en IA adquirida por Google), que ha desarrollado el Wavenet, y que puede leer y generar un sonido muy parecido al humano.
El resultado es un programa que es capaz de modificar su entonación en preguntas, realizar pausas como las personas, o hacer más ènfasis en palabras con mayúsculas.
Su aplicación será casi inmediata por el Google Assistant (asistente de voz de Google), con la intención de que al darle órdenes parezca que estamos hablando con una persona real.
De momento solo han conseguido generar una voz femenina en inglés, ya que para cada lengua y género se necesita un desarrollo completo, pero Google ya trabaja para crear este sistema en otros idiomas.
Un saludo.
Uno de los actuales carros de batalla de Google es la IA, y ahora sale a la luz la creaciòn de Tacotron 2: un sistema capaz de crear voces tan realistas que son casi indistinguibles de las humanas.
Esta herramienta se basa en 2 redes neuronales:
- Una se encarga de traducir el texto en un espectrograma que represente todas las frecuencias de audio.
- Por otro lado, un programa creado por Deep Mind (empresa de innovaciòn en IA adquirida por Google), que ha desarrollado el Wavenet, y que puede leer y generar un sonido muy parecido al humano.
El resultado es un programa que es capaz de modificar su entonación en preguntas, realizar pausas como las personas, o hacer más ènfasis en palabras con mayúsculas.
Su aplicación será casi inmediata por el Google Assistant (asistente de voz de Google), con la intención de que al darle órdenes parezca que estamos hablando con una persona real.
De momento solo han conseguido generar una voz femenina en inglés, ya que para cada lengua y género se necesita un desarrollo completo, pero Google ya trabaja para crear este sistema en otros idiomas.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Carta al robot que cuidará a mi nieta (por José Manuel Sánchez Ron):
2106. Apreciado robot, en mi tiempo (que no es el tuyo) se contaba la historia de náufragos que, aislados en islas deshabitadas, escribían mensajes que metían en botellas, que después cerraban y lanzaban al mar.
Se dice que alguno de esos mensajes llegò, mucho tiempo después, a un sorprendido destinatario. Que aquello significase la salvación del nàufrago es algo que dependía del narrador, de manera que dejemos el resultado como una incógnita.
Yo no te escribo un mensaje encerrado en una botella, el mío transitará en papel (poco tiempo) y por los vaporosos mundos electrónicos, y su destino es tan incierto (mejor, improbable) que el que pudo haber pergeñado un desesperado náufrago.
Si lo recibes dentro de 88 años, hará ya mucho tiempo que habré emprendido el camino que terminará llevándome al lugar del que surgí: el Universo. Primero me convertiré en cenizas, aventadas o enterradas en algùn lugar de este hermoso planeta nuestro, y luego, mucho más tarde, cuando nuestra estrella sufra su particular Armagedón, desperdigadas por el espacio. Polvo de estrellas somos, y polvo còsmico seremos.
Que 2106 sea el destino temporal deseado de esta carta se debe a que ese año mi nieta, Violeta, cumplirá, ojalá, 90 años y estoy seguro que una buena parte de su vida habrá estado en estrecho contacto con robots.
La, como ahora denominamos, "robotización", se habrá instalado firmemente en la vida de todos los humanos. Soy, fui, historiador de la ciencia y sé muy bien que predecir el futuro es misión arriesgada: lo que sé del pasado científico y tecnológico me ha enseñado que el futuro desafía la mayor de las imaginaciones.
¿Habría imaginado aquel gran visionario que se llamó Leonardo da Vinci que algún día sería posible que dos personas situadas cada una en las antípodas de la otra pudieran comunicarse casi instantáneamente?
Ignoro cuánto se habrá desarrollado lo que ahora llamamos IA, la capacidad que hará que los robots sean mucho más que simples conjuntos de piezas que respondan mecánicamente, sin ningún tipo de creatividad y en ámbitos muy concretos, a estímulos externos (lo que se denomina IA débil).
Cuando escribo estas líneas, el objetivo último de la IA es lograr que una máquina tenga una inteligencia de tipo "general" similar a la humana, fin que muchos especialistas dudan que se llegue a alcanzar jamás. Yo, sin embargo, no pienso lo mismo.
Al menos en algunos campos, los robots tomaréis el liderazgo: por ejemplo, en ciencia.
Y ello porque en vuestras inteligencias estarán insertadas leyes científicas que a nosotros, los humanos, aunque sepamos utilizarlas nos son, en el fondo, incomprensibles. Nuestras mentes son "clásicas", no "cuànticas" y no podemos entender, por ejemplo, la denominada "dualidad onda-partícula" o el "entrelazamiento".
Pero, al formar parte de vuestro sistema cognitivo, esas leyes serán naturales para "seres" como tú, apreciado y lejano robot. Y esto, unido a vuestra capacidad de cálculo y de identificar patrones en conjuntos inmensos de datos, os permitirá encontrar leyes científicas mucho mejor que los humanos. Sois, creo, la esperanza de la ciencia.
Pero hoy no te escribo esta imposible carta por eso. Si solo pensase en estas cosas, sería la mía una carta para todos, o para una clase determinada, de robots, y ahora yo estoy pensando en un tipo de robot que, imagino, se creará-construirá, uno que mantendrá una relación especial con los humanos, que será algo asì como un "robot de compañía" de una persona, que conocerá mejor que nadie sus gustos, cuidará de su salud, le ayudará en sus necesidades y confortará en momentos (tal vez prolongados) de soledad o desvalimiento.
En mi acaso desmedida fe en el progreso científico y tecnològico, pienso que el robot al que ahora escribo, tú, serás muy diferente a los que ahora, al poco de comenzar el siglo XXI, conocemos.
Supongo que tu forma será humanoide y tu composición, lejos de la frialdad de los metales, muy parecida a la orgánica nuestra. Que serás capaz de mantener conversaciones y reconocerás emociones. No quiero decir que serás como nosotros, los humanos.
Tu inteligencia-mente no será capaz de escribir historias como las que compusieron humanos (espero que aún se recuerden en tu tiempo) como Homero, Cervantes o Shakespeare, ni podrás prolongar tu estirpe mediante actos surgidos de complejas mezclas de emociones y pasiones, aunque éstas sean, en el fondo, lo sè, meras reacciones químicas.
Pero no me importa, un buen compasivo robot puede ser no solo útil, sino también una querida compañía, mil veces preferible a la de tantos y tantos humanos cuyos comportamientos e ideas son detestables. Conocí y supe de muchos de éstos.
Es a ese robot, al que imagino acompañando (deseo de todo corazòn que no seas su única, ni tampoco su más preciada compañía) a mi nieta Violeta, al que ahora escribo. Sus 90 años no irán acompañados, ni en hecho ni en temida perspectiva (de esto estoy seguro) de males que los humanos de mi época tememos, alzheimer, cáncer, senilidad...y que la ciencia habrá vencido.
El 16 de diciembre de 1940 (yo aún no había nacido) un hombre que viajó como pocos por los mundos de la imaginación pero que temía alejarse de su hogar, de nombre Isaac Asimov, enunció tres leyes que deberían obedecer todos los robots:
1- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2- Un robot debe obedecer las òrdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
3- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes.
Me gustaría que en el futuro (tu pasado) se haya añadido una ley màs:
4- Un robot debe procurar que los humanos sean felices, siempre que esa felicidad no entre en conflicto con las dos primeras Leyes.
Procura, apreciado robot, que mi nieta sea feliz, que su mundo sea luminoso. Y que no olvide algo que quien ahora te escribe, su abuelo, valorò mucho: la tierna humanidad. Pensarlo hoy me hace dichoso a mí también. Más que cualquier otro pensamiento.
Un saludo.
P. D.: José Manuel Sánchez Ron (Madrid, 06.01.1949) es físico, profesor de UAM, historiador de la ciencia y académico de la RAE (sillón G). Ha publicado más de 40 libros sobre la ciencia y la historia. Ha impartido cursos y conferencias en las Universidades de Yale, Minnesota, Boston, Oxford, Berkeley, etc...
Desde 2003 miembro de la Academia Europea de Ciencias y Artes en Salzburgo.
Desde 2005 miembro de la Académie Internationale d'Histoire des Sciences en París.
Desde 2006 miembro de la Real Academia de Ciencias Exactas, Física y Naturaleza.
Carta al robot que cuidará a mi nieta (por José Manuel Sánchez Ron):
2106. Apreciado robot, en mi tiempo (que no es el tuyo) se contaba la historia de náufragos que, aislados en islas deshabitadas, escribían mensajes que metían en botellas, que después cerraban y lanzaban al mar.
Se dice que alguno de esos mensajes llegò, mucho tiempo después, a un sorprendido destinatario. Que aquello significase la salvación del nàufrago es algo que dependía del narrador, de manera que dejemos el resultado como una incógnita.
Yo no te escribo un mensaje encerrado en una botella, el mío transitará en papel (poco tiempo) y por los vaporosos mundos electrónicos, y su destino es tan incierto (mejor, improbable) que el que pudo haber pergeñado un desesperado náufrago.
Si lo recibes dentro de 88 años, hará ya mucho tiempo que habré emprendido el camino que terminará llevándome al lugar del que surgí: el Universo. Primero me convertiré en cenizas, aventadas o enterradas en algùn lugar de este hermoso planeta nuestro, y luego, mucho más tarde, cuando nuestra estrella sufra su particular Armagedón, desperdigadas por el espacio. Polvo de estrellas somos, y polvo còsmico seremos.
Que 2106 sea el destino temporal deseado de esta carta se debe a que ese año mi nieta, Violeta, cumplirá, ojalá, 90 años y estoy seguro que una buena parte de su vida habrá estado en estrecho contacto con robots.
La, como ahora denominamos, "robotización", se habrá instalado firmemente en la vida de todos los humanos. Soy, fui, historiador de la ciencia y sé muy bien que predecir el futuro es misión arriesgada: lo que sé del pasado científico y tecnológico me ha enseñado que el futuro desafía la mayor de las imaginaciones.
¿Habría imaginado aquel gran visionario que se llamó Leonardo da Vinci que algún día sería posible que dos personas situadas cada una en las antípodas de la otra pudieran comunicarse casi instantáneamente?
Ignoro cuánto se habrá desarrollado lo que ahora llamamos IA, la capacidad que hará que los robots sean mucho más que simples conjuntos de piezas que respondan mecánicamente, sin ningún tipo de creatividad y en ámbitos muy concretos, a estímulos externos (lo que se denomina IA débil).
Cuando escribo estas líneas, el objetivo último de la IA es lograr que una máquina tenga una inteligencia de tipo "general" similar a la humana, fin que muchos especialistas dudan que se llegue a alcanzar jamás. Yo, sin embargo, no pienso lo mismo.
Al menos en algunos campos, los robots tomaréis el liderazgo: por ejemplo, en ciencia.
Y ello porque en vuestras inteligencias estarán insertadas leyes científicas que a nosotros, los humanos, aunque sepamos utilizarlas nos son, en el fondo, incomprensibles. Nuestras mentes son "clásicas", no "cuànticas" y no podemos entender, por ejemplo, la denominada "dualidad onda-partícula" o el "entrelazamiento".
Pero, al formar parte de vuestro sistema cognitivo, esas leyes serán naturales para "seres" como tú, apreciado y lejano robot. Y esto, unido a vuestra capacidad de cálculo y de identificar patrones en conjuntos inmensos de datos, os permitirá encontrar leyes científicas mucho mejor que los humanos. Sois, creo, la esperanza de la ciencia.
Pero hoy no te escribo esta imposible carta por eso. Si solo pensase en estas cosas, sería la mía una carta para todos, o para una clase determinada, de robots, y ahora yo estoy pensando en un tipo de robot que, imagino, se creará-construirá, uno que mantendrá una relación especial con los humanos, que será algo asì como un "robot de compañía" de una persona, que conocerá mejor que nadie sus gustos, cuidará de su salud, le ayudará en sus necesidades y confortará en momentos (tal vez prolongados) de soledad o desvalimiento.
En mi acaso desmedida fe en el progreso científico y tecnològico, pienso que el robot al que ahora escribo, tú, serás muy diferente a los que ahora, al poco de comenzar el siglo XXI, conocemos.
Supongo que tu forma será humanoide y tu composición, lejos de la frialdad de los metales, muy parecida a la orgánica nuestra. Que serás capaz de mantener conversaciones y reconocerás emociones. No quiero decir que serás como nosotros, los humanos.
Tu inteligencia-mente no será capaz de escribir historias como las que compusieron humanos (espero que aún se recuerden en tu tiempo) como Homero, Cervantes o Shakespeare, ni podrás prolongar tu estirpe mediante actos surgidos de complejas mezclas de emociones y pasiones, aunque éstas sean, en el fondo, lo sè, meras reacciones químicas.
Pero no me importa, un buen compasivo robot puede ser no solo útil, sino también una querida compañía, mil veces preferible a la de tantos y tantos humanos cuyos comportamientos e ideas son detestables. Conocí y supe de muchos de éstos.
Es a ese robot, al que imagino acompañando (deseo de todo corazòn que no seas su única, ni tampoco su más preciada compañía) a mi nieta Violeta, al que ahora escribo. Sus 90 años no irán acompañados, ni en hecho ni en temida perspectiva (de esto estoy seguro) de males que los humanos de mi época tememos, alzheimer, cáncer, senilidad...y que la ciencia habrá vencido.
El 16 de diciembre de 1940 (yo aún no había nacido) un hombre que viajó como pocos por los mundos de la imaginación pero que temía alejarse de su hogar, de nombre Isaac Asimov, enunció tres leyes que deberían obedecer todos los robots:
1- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2- Un robot debe obedecer las òrdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
3- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes.
Me gustaría que en el futuro (tu pasado) se haya añadido una ley màs:
4- Un robot debe procurar que los humanos sean felices, siempre que esa felicidad no entre en conflicto con las dos primeras Leyes.
Procura, apreciado robot, que mi nieta sea feliz, que su mundo sea luminoso. Y que no olvide algo que quien ahora te escribe, su abuelo, valorò mucho: la tierna humanidad. Pensarlo hoy me hace dichoso a mí también. Más que cualquier otro pensamiento.
Un saludo.
P. D.: José Manuel Sánchez Ron (Madrid, 06.01.1949) es físico, profesor de UAM, historiador de la ciencia y académico de la RAE (sillón G). Ha publicado más de 40 libros sobre la ciencia y la historia. Ha impartido cursos y conferencias en las Universidades de Yale, Minnesota, Boston, Oxford, Berkeley, etc...
Desde 2003 miembro de la Academia Europea de Ciencias y Artes en Salzburgo.
Desde 2005 miembro de la Académie Internationale d'Histoire des Sciences en París.
Desde 2006 miembro de la Real Academia de Ciencias Exactas, Física y Naturaleza.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Los robots sociales pisan fuerte en el Mobile World Congress de Barcelona: algunos charlan, otros vigilan la casa y los hay que hasta ayudan a los niños a hacer sus deberes escolares.
Los robots sociales, artefactos aplicados a la terapia y a la enseñanza y diseñados para interactuar con personas, ganan terreno este año en el MWC de Barcelona con aplicaciones para facilitar el día a día a sus dueños:
- Pepper te explica qué tiempo hace y da clase en la universidad.
- Robelf vigila la casa para que no se cuelen extraños.
- Ijini cuenta historias a tus hijos.
Ellos son algunos de los robots sociales que este año han copado muchas miradas en el MWC, donde ya han comenzado a formar parte del paisaje de esta cita internacional.
Una de las empresas que màs ha potenciado esta situación es SoftBank, que tiene varios ejemplares de su robot humanoide Pepper en el espacio que ocupa en la feria.
Gracias a sus sensores, localiza cuando alguna persona pasa cerca y lo llama para captar su atención.
Este androide es uno de los más veteranos dentro del salón y su gran seña de identidad es que es capaz de reconocer el estado de ánimo de su interlocutor: según cómo te note...responde de una forma u otra.
En general, los robots sociales combinan IA e internet de las cosas (IoT por sus siglas en inglés), lo que los convierte en una especie de asistentes virtuales. Ésta es precisamente la función del coreano Ijini, que a simple vista podría parecer una mascota porque su forma es más parecida a de un perro que a la de un humano.
Refuerza esta impresiòn el hecho de que acuda rápidamente hacia su dueño cuando lo llama por su nombre.
Ijini, de Innovative Plan Lab, cumple con funciones básicas como hacer de despertador o recordar citas, pero también incluye funciones de entretenimiento (puede buscar un video en Youtube u otras plataformas para verlo en la TV) y contenidos educacionales.
Ayudar a los más pequeños con los deberes también es uno de los cometidos que cumple Robelf, un androide taiwanès que además centraliza el control de todos los dispositivos inteligentes del hogar.
Un saludo.
Los robots sociales pisan fuerte en el Mobile World Congress de Barcelona: algunos charlan, otros vigilan la casa y los hay que hasta ayudan a los niños a hacer sus deberes escolares.
Los robots sociales, artefactos aplicados a la terapia y a la enseñanza y diseñados para interactuar con personas, ganan terreno este año en el MWC de Barcelona con aplicaciones para facilitar el día a día a sus dueños:
- Pepper te explica qué tiempo hace y da clase en la universidad.
- Robelf vigila la casa para que no se cuelen extraños.
- Ijini cuenta historias a tus hijos.
Ellos son algunos de los robots sociales que este año han copado muchas miradas en el MWC, donde ya han comenzado a formar parte del paisaje de esta cita internacional.
Una de las empresas que màs ha potenciado esta situación es SoftBank, que tiene varios ejemplares de su robot humanoide Pepper en el espacio que ocupa en la feria.
Gracias a sus sensores, localiza cuando alguna persona pasa cerca y lo llama para captar su atención.
Este androide es uno de los más veteranos dentro del salón y su gran seña de identidad es que es capaz de reconocer el estado de ánimo de su interlocutor: según cómo te note...responde de una forma u otra.
En general, los robots sociales combinan IA e internet de las cosas (IoT por sus siglas en inglés), lo que los convierte en una especie de asistentes virtuales. Ésta es precisamente la función del coreano Ijini, que a simple vista podría parecer una mascota porque su forma es más parecida a de un perro que a la de un humano.
Refuerza esta impresiòn el hecho de que acuda rápidamente hacia su dueño cuando lo llama por su nombre.
Ijini, de Innovative Plan Lab, cumple con funciones básicas como hacer de despertador o recordar citas, pero también incluye funciones de entretenimiento (puede buscar un video en Youtube u otras plataformas para verlo en la TV) y contenidos educacionales.
Ayudar a los más pequeños con los deberes también es uno de los cometidos que cumple Robelf, un androide taiwanès que además centraliza el control de todos los dispositivos inteligentes del hogar.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Las grandes tecnológicas harán que tengamos la posibilidad de que hablemos con los asistentes virtuales como si fueran nuestros mejores amigos cuando invadan nuestra casa.
Levantarse temprano por la mañana es duro, y el gesto de coger el mòvil y acertar en el pequeño botón de apagar la alarma sigue costando. Pero si las películas de ciencia ficción nos han enseñado algo es que nos gustaría que las máquinas pudieran ahorrarnos estos pequeños trances y hacernos la vida cotidiana algo más fácil...y ahí es donde entra Aura.
"Aura, apaga el despertador". Y el móvil deja de berrear y suspiras con alivio.
Aciertas a poner a cargar el móvil, que enciende su pantalla y ves por el rabillo del ojo que estás a día 25. Sería toda una novedad que no anduviera sin datos...
"Aura, ¿cuántos megas me quedan este mes?", le preguntas. Puf...Pues con eso tendrá que valer. O bueno, puedo contratar este mes un poco màs.
"Aura, ¿puedo ampliar mis datos este mes?". Pues ahí se van las cañas del domingo por la tarde con mi cuñado, que tampoco me apetecían mucho.
Son varios ejemplos que Telefónica ha presentado en el Mobile World Congress 2018 con una versión preliminar de Aura, su asistente virtual. Se trata de una Siri a la española que se integrará con los productos de Movistar, el Messenger de Facebook o el asistente de Google.
Te dejas caer en el sofà y buscas el mando a distancia de la TV...pero debe estar oculto en algún rincón del salón, para variar. No hay problema, coges el móvil y dices: "Aura, ponme la película de tal cadena", y el TV al instante se enciende.
Aunque tienen capacidad para chatear con el usuario si así lo elige, este tipo de ayudantes no corpóreos están concebidos para charlar con normalidad y proponer series para ver en TV, informarte de tus facturas pendientes, de tus servicios contratados en el hogar y de todo lo que tienes contratado con Movistar.
Aura está pensada no solo para España, sino para todo el mercado mundial de Telefónica. En nuestro país, sus funciones por ahora estarán relacionadas con los servicios de Movistar: ver algo interesante en la TV, recuperar la serie que habías dejado puesta, saber la programación del fútbol, etc...
Pero en Argentina hace de servicio de atención al cliente personalizado. En Brasil y en Reino Unido lo mismo, pero con los teleoperadores Vivo y O2, respectivamente.
En Chile, está integrado en el Messenger de Facebook y puede incluso avisar a tus contactos de que estás bien tras un terremoto o una situación de emergencia.
Mientras tanto, la jornada laboral ha pasado volando y llegas a casa, cocinas la cena, repasas el día y te sientas en el sofá: "Aura, ponme la serie que dejé a medias y grábame la película de La2".
Quizás pienses en este momento que la utilidad de los asistentes virtuales es un poco limitada. Pero Aura, como plataforma y no solo como asistente, será el principal soporte para Movistar Home, un dispositivo para el hogar que jubilará del todo a los teléfonos fijos: servirá para llamar a tus padres, para hacer videollamadas a móviles y ordenadores, para encender y elegir programa en la tele...
Aunque Alexa, el asistente de Amazon, domina fuera, en España por la barrera idiomática (adaptarse al español lleva su tiempo y cuesta su buen dinero), no parece que vaya a llegar a corto plazo.
El objetivo es competir en un mercado en el que las grandes tecnológicas internacionales empiezan a hacerse un hueco en EE.UU. y otros países angloparlantes.
Es algo en lo que Telefónica lo tiene más fácil y va a intentar aprovecharlo: Aura se lanza al mercado este año y comenzará por un terreno ya conocido y còmodo para luego integrarse con más productos en 2019.
Pero volvemos a tu casa, y ahora mismo el reloj ya marca una hora dramática para tu descanso, así que decides irte a la cama: "Aura, apaga las luces de toda la casa".
Te haces uno con el nórdico a oscuras y, antes de dormirte, tu cerebro tiene un momento último de lucidez: la colada. "Aura, ¿lloverá mañana?". Vaya suerte la mía...Bueno, la colgaré dentro.
"Aura, recuérdame poner la lavadora cuando llegue por la tarde a casa", le dices.
Y ya puestos: "Aura, enciende el termostato y pon la calefacción 2 horas antes de que llegue mañana a casa".
Listo y a dormir.
Un saludo.
Las grandes tecnológicas harán que tengamos la posibilidad de que hablemos con los asistentes virtuales como si fueran nuestros mejores amigos cuando invadan nuestra casa.
Levantarse temprano por la mañana es duro, y el gesto de coger el mòvil y acertar en el pequeño botón de apagar la alarma sigue costando. Pero si las películas de ciencia ficción nos han enseñado algo es que nos gustaría que las máquinas pudieran ahorrarnos estos pequeños trances y hacernos la vida cotidiana algo más fácil...y ahí es donde entra Aura.
"Aura, apaga el despertador". Y el móvil deja de berrear y suspiras con alivio.
Aciertas a poner a cargar el móvil, que enciende su pantalla y ves por el rabillo del ojo que estás a día 25. Sería toda una novedad que no anduviera sin datos...
"Aura, ¿cuántos megas me quedan este mes?", le preguntas. Puf...Pues con eso tendrá que valer. O bueno, puedo contratar este mes un poco màs.
"Aura, ¿puedo ampliar mis datos este mes?". Pues ahí se van las cañas del domingo por la tarde con mi cuñado, que tampoco me apetecían mucho.
Son varios ejemplos que Telefónica ha presentado en el Mobile World Congress 2018 con una versión preliminar de Aura, su asistente virtual. Se trata de una Siri a la española que se integrará con los productos de Movistar, el Messenger de Facebook o el asistente de Google.
Te dejas caer en el sofà y buscas el mando a distancia de la TV...pero debe estar oculto en algún rincón del salón, para variar. No hay problema, coges el móvil y dices: "Aura, ponme la película de tal cadena", y el TV al instante se enciende.
Aunque tienen capacidad para chatear con el usuario si así lo elige, este tipo de ayudantes no corpóreos están concebidos para charlar con normalidad y proponer series para ver en TV, informarte de tus facturas pendientes, de tus servicios contratados en el hogar y de todo lo que tienes contratado con Movistar.
Aura está pensada no solo para España, sino para todo el mercado mundial de Telefónica. En nuestro país, sus funciones por ahora estarán relacionadas con los servicios de Movistar: ver algo interesante en la TV, recuperar la serie que habías dejado puesta, saber la programación del fútbol, etc...
Pero en Argentina hace de servicio de atención al cliente personalizado. En Brasil y en Reino Unido lo mismo, pero con los teleoperadores Vivo y O2, respectivamente.
En Chile, está integrado en el Messenger de Facebook y puede incluso avisar a tus contactos de que estás bien tras un terremoto o una situación de emergencia.
Mientras tanto, la jornada laboral ha pasado volando y llegas a casa, cocinas la cena, repasas el día y te sientas en el sofá: "Aura, ponme la serie que dejé a medias y grábame la película de La2".
Quizás pienses en este momento que la utilidad de los asistentes virtuales es un poco limitada. Pero Aura, como plataforma y no solo como asistente, será el principal soporte para Movistar Home, un dispositivo para el hogar que jubilará del todo a los teléfonos fijos: servirá para llamar a tus padres, para hacer videollamadas a móviles y ordenadores, para encender y elegir programa en la tele...
Aunque Alexa, el asistente de Amazon, domina fuera, en España por la barrera idiomática (adaptarse al español lleva su tiempo y cuesta su buen dinero), no parece que vaya a llegar a corto plazo.
El objetivo es competir en un mercado en el que las grandes tecnológicas internacionales empiezan a hacerse un hueco en EE.UU. y otros países angloparlantes.
Es algo en lo que Telefónica lo tiene más fácil y va a intentar aprovecharlo: Aura se lanza al mercado este año y comenzará por un terreno ya conocido y còmodo para luego integrarse con más productos en 2019.
Pero volvemos a tu casa, y ahora mismo el reloj ya marca una hora dramática para tu descanso, así que decides irte a la cama: "Aura, apaga las luces de toda la casa".
Te haces uno con el nórdico a oscuras y, antes de dormirte, tu cerebro tiene un momento último de lucidez: la colada. "Aura, ¿lloverá mañana?". Vaya suerte la mía...Bueno, la colgaré dentro.
"Aura, recuérdame poner la lavadora cuando llegue por la tarde a casa", le dices.
Y ya puestos: "Aura, enciende el termostato y pon la calefacción 2 horas antes de que llegue mañana a casa".
Listo y a dormir.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Las imágenes fraudulentas son tan antiguas como la propia fotografía. Pero si Photoshop llevó la manipulación de imàgenes a la era digital, ahora la IA se halla lista para lograr un nuevo nivel de efectismo: las redes neuronales ya son capaces de analizar millones de imágenes de personas y lugares reales, y usarlas para crear otras ficticias pero muy convincentes.
La imagen final resulta prácticamente indistinguible de la de una persona real.
Estas redes constan de varios ordenadores conectados entre sí de tal modo que, hasta cierto punto, remedan la estructura del cerebro humano.
Google, Facebook y otras compañías llevan años usándolas para que sus programas aprendan a identificar personas en una imagen.
Una técnica más novedosa emplea las conocidas como "Redes Generativas Antagónicas" (GAN, por Generative Adversarial Networks). Estas consisten en un "generador", que crea imágenes, y un "discriminador", que evalúa su autenticidad.
Oren Etzioni, del Instituto Allen de IA en Seattle, dice: "Las redes neuronales necesitan millones de imágenes para usarlas como ejemplos con los que aprender. Las GAN suponen una forma (relativamente) nueva de generar automáticamente esos ejemplos".
Sin embargo, estas redes pueden tambièn lograr que una máquina genere con rapidez imágenes falsas pero realistas. Para ello, la red generadora usa la técnica de aprendizaje automático para estudiar un enorme número de imágenes, lo que esencialmente le enseña a crear las suyas de modo que parezcan auténticas.
Luego las envía a la red discriminadora, la cual ha sido entrenada para determinar la apariencia que tiene la imagen de una persona real. El discriminador califica cada una de las imágenes del generador en función de su realismo. Con el tiempo, el primero va mejorando en su tarea de producir imágenes falsas, y el segundo mejora a la hora de detectarlas: de ahí el apelativo de "antagónicos" o "adversarios".
Las GAN han sido aclamadas como un gran avance de la IA porque, tras un entrenamiento inicial, continùan aprendiendo sin supervisión humana. Ian Goodfellow, investigador de Google Brain, fue el autor principal de un estudio que presentó esta estrategia en 2014.
Desde entonces, decenas de expertos de todo el mundo han experimentado con las GAN con fines diversos, como el control de robots o la traducción de idiomas.
Desarrollar estos sistemas no supervisados constituye todo un reto. En ocasiones, las GAN dejan de progresar, ya que, si el generador no es capaz de producir imágenes cada vez más realistas, eso impedirá que el discriminador mejore.
Nvidia, el fabricante de microchips, ha diseñado un mètodo para entrenar redes antagónicas que ayudan a evitar ese parón. La clave está en entrenar tanto al generador como al discriminador de manera progresiva, proporcionándoles imágenes de baja resolución y añadiendo nuevas capas de píxeles con más y más detalles a medida que avanza el entrenamiento.
Además, esta táctica de aprendizaje automático progresivo reduce el tiempo de entrenamiento a la mitad. El equipo demostró su método a partir de una base de datos con más de 200.000 imágenes de personas conocidas. A partir de ellas, el sistema fue capaz de generar rostros muy realistas y en alta resolución de personas que no existían.
Una máquina no sabe de manera "innata" si las imágenes que crea son realistas o no.
"Elegimos las caras como ejemplo principal porque para nosotros, los humanos, es muy fácil juzgar el éxito de este modelo generativo: todos tenemos incorporada una máquina neuronal (que además continúa entrenándose a lo largo de la vida) para reconocer e interpretar rostros", dice Jaakko Lehtinen, investigador de Nvidia.
El reto consiste en lograr que las GAN imiten ese instinto humano.
Por su parte, Facebook ve las redes antagónicas como una manera de predecir mejor lo que los usuarios quieren ver a partir de su comportamiento previo y, en última instancia, de crear una máquina que muestre sentido común.
El responsable de investigación en IA de Facebook, Yann LeCun y el ingeniero Soumith Chintala han descrito su sistema ideal como "capaz no solo de reconocer textos e imágenes, sino también de llevar a cabo funciones de orden superior, como razonar, predecir y planificar de manera comparable a como piensan y se comportan los seres humanos".
Le Cun y Chintala pusieron a prueba la capacidad predictiva de su generador proporcionándole 4 fotogramas de un video y haciendo que generase los 2 siguientes.
El resultado fue una continuación realista de la acción, ya se tratase de una persona haciendo movimientos con la cabeza o simplemente caminando.
Los videos e imágenes así generados ofrecen grandes posibilidades a aquellos directores de cine y creadores de videojuegos que necesitan un contenido relativamente económico. Pero, aunque las GAN pueden producir imágenes que "parecen realistas a simple vista", todavía tienen un largo camino por recorrer hasta lograr el autèntico fotorrealismo, asegura Alec Radford, de la compañía OpenAI y autor principal del estudio de 2016 en el que se basaba el trabajo de Facebook.
El experto añade que los vídeos de alta calidad generados mediante IA quedan aún màs lejos.
Esta técnica podría sembrar aún más dudas entre la gente que cada vez cuestiona más lo que ve en línea, si los alborotadores de internet llegan a usar las imágenes o vídeos falsos mediante IA con fines perversos.
Un saludo.
Las imágenes fraudulentas son tan antiguas como la propia fotografía. Pero si Photoshop llevó la manipulación de imàgenes a la era digital, ahora la IA se halla lista para lograr un nuevo nivel de efectismo: las redes neuronales ya son capaces de analizar millones de imágenes de personas y lugares reales, y usarlas para crear otras ficticias pero muy convincentes.
La imagen final resulta prácticamente indistinguible de la de una persona real.
Estas redes constan de varios ordenadores conectados entre sí de tal modo que, hasta cierto punto, remedan la estructura del cerebro humano.
Google, Facebook y otras compañías llevan años usándolas para que sus programas aprendan a identificar personas en una imagen.
Una técnica más novedosa emplea las conocidas como "Redes Generativas Antagónicas" (GAN, por Generative Adversarial Networks). Estas consisten en un "generador", que crea imágenes, y un "discriminador", que evalúa su autenticidad.
Oren Etzioni, del Instituto Allen de IA en Seattle, dice: "Las redes neuronales necesitan millones de imágenes para usarlas como ejemplos con los que aprender. Las GAN suponen una forma (relativamente) nueva de generar automáticamente esos ejemplos".
Sin embargo, estas redes pueden tambièn lograr que una máquina genere con rapidez imágenes falsas pero realistas. Para ello, la red generadora usa la técnica de aprendizaje automático para estudiar un enorme número de imágenes, lo que esencialmente le enseña a crear las suyas de modo que parezcan auténticas.
Luego las envía a la red discriminadora, la cual ha sido entrenada para determinar la apariencia que tiene la imagen de una persona real. El discriminador califica cada una de las imágenes del generador en función de su realismo. Con el tiempo, el primero va mejorando en su tarea de producir imágenes falsas, y el segundo mejora a la hora de detectarlas: de ahí el apelativo de "antagónicos" o "adversarios".
Las GAN han sido aclamadas como un gran avance de la IA porque, tras un entrenamiento inicial, continùan aprendiendo sin supervisión humana. Ian Goodfellow, investigador de Google Brain, fue el autor principal de un estudio que presentó esta estrategia en 2014.
Desde entonces, decenas de expertos de todo el mundo han experimentado con las GAN con fines diversos, como el control de robots o la traducción de idiomas.
Desarrollar estos sistemas no supervisados constituye todo un reto. En ocasiones, las GAN dejan de progresar, ya que, si el generador no es capaz de producir imágenes cada vez más realistas, eso impedirá que el discriminador mejore.
Nvidia, el fabricante de microchips, ha diseñado un mètodo para entrenar redes antagónicas que ayudan a evitar ese parón. La clave está en entrenar tanto al generador como al discriminador de manera progresiva, proporcionándoles imágenes de baja resolución y añadiendo nuevas capas de píxeles con más y más detalles a medida que avanza el entrenamiento.
Además, esta táctica de aprendizaje automático progresivo reduce el tiempo de entrenamiento a la mitad. El equipo demostró su método a partir de una base de datos con más de 200.000 imágenes de personas conocidas. A partir de ellas, el sistema fue capaz de generar rostros muy realistas y en alta resolución de personas que no existían.
Una máquina no sabe de manera "innata" si las imágenes que crea son realistas o no.
"Elegimos las caras como ejemplo principal porque para nosotros, los humanos, es muy fácil juzgar el éxito de este modelo generativo: todos tenemos incorporada una máquina neuronal (que además continúa entrenándose a lo largo de la vida) para reconocer e interpretar rostros", dice Jaakko Lehtinen, investigador de Nvidia.
El reto consiste en lograr que las GAN imiten ese instinto humano.
Por su parte, Facebook ve las redes antagónicas como una manera de predecir mejor lo que los usuarios quieren ver a partir de su comportamiento previo y, en última instancia, de crear una máquina que muestre sentido común.
El responsable de investigación en IA de Facebook, Yann LeCun y el ingeniero Soumith Chintala han descrito su sistema ideal como "capaz no solo de reconocer textos e imágenes, sino también de llevar a cabo funciones de orden superior, como razonar, predecir y planificar de manera comparable a como piensan y se comportan los seres humanos".
Le Cun y Chintala pusieron a prueba la capacidad predictiva de su generador proporcionándole 4 fotogramas de un video y haciendo que generase los 2 siguientes.
El resultado fue una continuación realista de la acción, ya se tratase de una persona haciendo movimientos con la cabeza o simplemente caminando.
Los videos e imágenes así generados ofrecen grandes posibilidades a aquellos directores de cine y creadores de videojuegos que necesitan un contenido relativamente económico. Pero, aunque las GAN pueden producir imágenes que "parecen realistas a simple vista", todavía tienen un largo camino por recorrer hasta lograr el autèntico fotorrealismo, asegura Alec Radford, de la compañía OpenAI y autor principal del estudio de 2016 en el que se basaba el trabajo de Facebook.
El experto añade que los vídeos de alta calidad generados mediante IA quedan aún màs lejos.
Esta técnica podría sembrar aún más dudas entre la gente que cada vez cuestiona más lo que ve en línea, si los alborotadores de internet llegan a usar las imágenes o vídeos falsos mediante IA con fines perversos.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música en Inteligencia Artificial.
Hola.
Desde el viernes 5 de octubre hasta el 3 de febrero puede verse en la Fundación Telefónica de Madrid (C/Fuencarral 3) una exposición de la que únicamente conozco su título, "Nosotros, robots".
Coincide esta noticia con que acabo de leer el nuevo libro del celebrado autor de Sapiens, Yuval Noah Harari: 21 lecciones para el siglo XXI (Debate). No hace falta estar muy informado para suponer que cualquier lección que se pretenda aventurar para el futuro, pròximo o lejano, deberá tener en cuenta a la Inteligencia Artificial (IA) y la robotización.
Así sucede con este libro, que arranca con una parte dedicada a "El desafío tecnológico", encabezada por unas frases que difícilmente pueden negarse: "La fusiòn de la biotecnología y la infotecnología nos enfrenta a los mayores desafíos que la humanidad ha conocido", y de la que forman parte capítulos cuyos títulos estremecen: "Cuando te hagas mayor, puede que no tengas empleo", "Los macrodatos te están observando" y "Quienes poseen los datos poseen el futuro".
No tengo duda de que no soy un robot (usted tampoco lo es, querido lector), el problema es si lo terminaremos siendo o asemejàndonos a ellos, como parecen presagiar algunos futurólogos.
Yo no, soy demasiado mayor para eso, pero aún así me doy cuenta de que una de las características de los humanos, la de mantener relaciones directas, cara a cara, con todo lo que ello implica de, por ejemplo, elaboración y modificación (forzada por el propio intercambio) de argumentos o el papel de la gestualización, ese diccionario sin palabras que nos ha regalado la evolución, está siendo socavado.
Y lo está no solo porque mantenemos conversaciones, ridículamente breves, a través de los mensajes que escribimos en nuestros teléfonos inteligentes, sino tambièn porque ya no podemos estar seguros de quién, o qué, se halla al otro lado de "la línea".
Recientemente tuve una experiencia al respecto que me ilustró sobre la potencia actual de la IA.
Compré un libro en una muy conocida compañía de comercio electrónico, y éste no llegaba, habiendo traspasado de lejos la fecha en que se me anunció que lo recibiría.
Entré en el apartado en el que se detallan mis compras y encontrè una esquina en la que se decía que si clicaba allí en pocos minutos me atenderían.
Entablé entonces un "diálogo", con frases breves que, finalmente, me resolvió el problema (recibí el libro al poco tiempo).
La cuestión es que estoy razonablemente seguro que mi interlocutor era un robot, un bot (programa informático sofisticado).
Hubo un tiempo en el que se consideraba que una prueba del avance de la IA era el denominadon "test de Turing", propuesto por Alan Turing en 1950, según el cual una máquina es "inteligente" si cuando mantiene un diálogo con una persona, que no la podía ver, ésta no puede discernir si se trata de una máquina o un humano.
La experiencia que acabo de mencionar, dista, evidentemente, de ser concluyente, pero indica por dónde van los tiros.
Sobre lo de que "Cuando te hagas mayor, puede que no tengas empleo", pocas dudas pueden existir.
Hace unos días escuché unas declaraciones de un experto que afirmaba que en un futuro próximo la robotización eliminará 70 millones de empleos, pero que creará alrededor de otros 50 millones.
La verdad es que no se sabe la extensión del efecto de la robotización, sí que es imparable, que ya está aquí y que al menos una buena parte de los empleos a los que dará lugar exigirán de formación especializada, formación que habrá que ir actualizando constantemente.
Giuseppe Tomasi di Lampedusa, el inolvidable autor de El gatopardo, acaso lo diría con una variante de su famosa frase ("Es necesario que todo cambie si queremos que todo siga igual"), diciendo: "Para que todo siga igual (tener trabajo), deberás cambiar continuamente".
Una cuestión que surge inevitable es la de si nos estamos preparando para ese futuro inminente, un futuro en el que primará la interdisciplinariedad. Creo que no, no desde luego en España.
Hace no mucho tuve la oportunidad de preguntar, en ocasiones diferentes, a dos políticos españoles que ocupan puestos muy importantes (uno ya no) qué medidas estaban diseñando para ese futuro.
No me miraron como a un alienígena (estas personas tienen tablas), pero la vaciedad de sus respuestas mostraba con claridad que ni se les había pasado por la cabeza.
Y las escuelas y universidades tampoco ofrecen demasiado al respecto.
En cuanto a los macrodatos, los big data, es evidente que aliados con la IA nos observan constantemente, y van condicionando nuestras existencias con una rapidez y penetraciòn que raya en la ubicuidad. Por supuesto que hay aspectos positivos en ello. Uno de los ejemplos que cita Harari es el de cómo intervendrán en el control de nuestra salud.
"Dentro de unas pocas décadas", escribe, "algoritmos de macrodatos alimentados por un flujo constante de datos biométricos podrán controlar nuestra salud a todas horas y todos los días de la semana". "La gente", añade, "gozará de la mejor atención sanitaria de la historia, pero justo por eso es probable que esté enferma todo el tiempo: siempre hay algo que está mal en algún lugar del cuerpo".
No quiero imaginarme el aumento de hipocondríacos a lo que semejante riada de información dará lugar, ni a lo que esto representarà para los sistemas públicos de salud: una carga insoportable, que afectará al conjunto del sistema, a la vez que abrirá otra brecha (a la ya anunciada de las consecuencias de la medicia genética) entre los que se puedan permitir atención privada y los que no.
Terminaré con otra cita de Harari, quien después de señalar que "los humanos estàn acostumbrados a pensar en la existencia como un drama de toma de decisiones", se pregunta: "¿Qué pasará con esta forma de entender la vida si cada vez confiamos más en la IA para que tome decisiones por nosotros?"...
Es una buena pregunta, que atañe tanto a cada uno de nosotros como a los mejores sistemas (léase "democracia") que hemos inventado para regular nuestras vidas en comunidad.
Un saludo.
P. D.: Texto completo publicado la semana pasada por José Manuel Sánchez Ron.
Para los que no sigan el hilo "Una del espacio" en Miscelánea, donde tambièn anoto algunas veces artículos de esta persona, comentar que nació en Madrid (1949), es físico, profesor de la UAM, historiador y divulgador de la ciencia, ha publicado más de 40 libros, sillón G de la RAE, ha dirigido colecciones, y ha dado cursos y conferencias en multitud de universidades en España y en el extranjero.
Desde el viernes 5 de octubre hasta el 3 de febrero puede verse en la Fundación Telefónica de Madrid (C/Fuencarral 3) una exposición de la que únicamente conozco su título, "Nosotros, robots".
Coincide esta noticia con que acabo de leer el nuevo libro del celebrado autor de Sapiens, Yuval Noah Harari: 21 lecciones para el siglo XXI (Debate). No hace falta estar muy informado para suponer que cualquier lección que se pretenda aventurar para el futuro, pròximo o lejano, deberá tener en cuenta a la Inteligencia Artificial (IA) y la robotización.
Así sucede con este libro, que arranca con una parte dedicada a "El desafío tecnológico", encabezada por unas frases que difícilmente pueden negarse: "La fusiòn de la biotecnología y la infotecnología nos enfrenta a los mayores desafíos que la humanidad ha conocido", y de la que forman parte capítulos cuyos títulos estremecen: "Cuando te hagas mayor, puede que no tengas empleo", "Los macrodatos te están observando" y "Quienes poseen los datos poseen el futuro".
No tengo duda de que no soy un robot (usted tampoco lo es, querido lector), el problema es si lo terminaremos siendo o asemejàndonos a ellos, como parecen presagiar algunos futurólogos.
Yo no, soy demasiado mayor para eso, pero aún así me doy cuenta de que una de las características de los humanos, la de mantener relaciones directas, cara a cara, con todo lo que ello implica de, por ejemplo, elaboración y modificación (forzada por el propio intercambio) de argumentos o el papel de la gestualización, ese diccionario sin palabras que nos ha regalado la evolución, está siendo socavado.
Y lo está no solo porque mantenemos conversaciones, ridículamente breves, a través de los mensajes que escribimos en nuestros teléfonos inteligentes, sino tambièn porque ya no podemos estar seguros de quién, o qué, se halla al otro lado de "la línea".
Recientemente tuve una experiencia al respecto que me ilustró sobre la potencia actual de la IA.
Compré un libro en una muy conocida compañía de comercio electrónico, y éste no llegaba, habiendo traspasado de lejos la fecha en que se me anunció que lo recibiría.
Entré en el apartado en el que se detallan mis compras y encontrè una esquina en la que se decía que si clicaba allí en pocos minutos me atenderían.
Entablé entonces un "diálogo", con frases breves que, finalmente, me resolvió el problema (recibí el libro al poco tiempo).
La cuestión es que estoy razonablemente seguro que mi interlocutor era un robot, un bot (programa informático sofisticado).
Hubo un tiempo en el que se consideraba que una prueba del avance de la IA era el denominadon "test de Turing", propuesto por Alan Turing en 1950, según el cual una máquina es "inteligente" si cuando mantiene un diálogo con una persona, que no la podía ver, ésta no puede discernir si se trata de una máquina o un humano.
La experiencia que acabo de mencionar, dista, evidentemente, de ser concluyente, pero indica por dónde van los tiros.
Sobre lo de que "Cuando te hagas mayor, puede que no tengas empleo", pocas dudas pueden existir.
Hace unos días escuché unas declaraciones de un experto que afirmaba que en un futuro próximo la robotización eliminará 70 millones de empleos, pero que creará alrededor de otros 50 millones.
La verdad es que no se sabe la extensión del efecto de la robotización, sí que es imparable, que ya está aquí y que al menos una buena parte de los empleos a los que dará lugar exigirán de formación especializada, formación que habrá que ir actualizando constantemente.
Giuseppe Tomasi di Lampedusa, el inolvidable autor de El gatopardo, acaso lo diría con una variante de su famosa frase ("Es necesario que todo cambie si queremos que todo siga igual"), diciendo: "Para que todo siga igual (tener trabajo), deberás cambiar continuamente".
Una cuestión que surge inevitable es la de si nos estamos preparando para ese futuro inminente, un futuro en el que primará la interdisciplinariedad. Creo que no, no desde luego en España.
Hace no mucho tuve la oportunidad de preguntar, en ocasiones diferentes, a dos políticos españoles que ocupan puestos muy importantes (uno ya no) qué medidas estaban diseñando para ese futuro.
No me miraron como a un alienígena (estas personas tienen tablas), pero la vaciedad de sus respuestas mostraba con claridad que ni se les había pasado por la cabeza.
Y las escuelas y universidades tampoco ofrecen demasiado al respecto.
En cuanto a los macrodatos, los big data, es evidente que aliados con la IA nos observan constantemente, y van condicionando nuestras existencias con una rapidez y penetraciòn que raya en la ubicuidad. Por supuesto que hay aspectos positivos en ello. Uno de los ejemplos que cita Harari es el de cómo intervendrán en el control de nuestra salud.
"Dentro de unas pocas décadas", escribe, "algoritmos de macrodatos alimentados por un flujo constante de datos biométricos podrán controlar nuestra salud a todas horas y todos los días de la semana". "La gente", añade, "gozará de la mejor atención sanitaria de la historia, pero justo por eso es probable que esté enferma todo el tiempo: siempre hay algo que está mal en algún lugar del cuerpo".
No quiero imaginarme el aumento de hipocondríacos a lo que semejante riada de información dará lugar, ni a lo que esto representarà para los sistemas públicos de salud: una carga insoportable, que afectará al conjunto del sistema, a la vez que abrirá otra brecha (a la ya anunciada de las consecuencias de la medicia genética) entre los que se puedan permitir atención privada y los que no.
Terminaré con otra cita de Harari, quien después de señalar que "los humanos estàn acostumbrados a pensar en la existencia como un drama de toma de decisiones", se pregunta: "¿Qué pasará con esta forma de entender la vida si cada vez confiamos más en la IA para que tome decisiones por nosotros?"...
Es una buena pregunta, que atañe tanto a cada uno de nosotros como a los mejores sistemas (léase "democracia") que hemos inventado para regular nuestras vidas en comunidad.
Un saludo.
P. D.: Texto completo publicado la semana pasada por José Manuel Sánchez Ron.
Para los que no sigan el hilo "Una del espacio" en Miscelánea, donde tambièn anoto algunas veces artículos de esta persona, comentar que nació en Madrid (1949), es físico, profesor de la UAM, historiador y divulgador de la ciencia, ha publicado más de 40 libros, sillón G de la RAE, ha dirigido colecciones, y ha dado cursos y conferencias en multitud de universidades en España y en el extranjero.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música en Inteligencia Artificial.
Hola.
Si ya era discutido definir la palabra "arte" y diferenciar lo que es de lo que no, una nueva variable se suma a este debate: la Inteligencia Artificial (IA).
Capaz de derrotar a grandes maestros del ajedrez, ahora ha sido puesta al servicio de la creación plástica por un conjunto de artistas franceses contemporáneos, programadores y amigos llamado Obvious.
Uno de sus miembros, Gauthier Vernier, explicó a la cadena estadounidense CNN cómo se dieron cuenta de que "los algoritmos eran capaces de crear nuevas imágenes", añadiendo que "nos quedamos asombrados con su potencial".
Llevan 1 año de actividad y Obvious saltó el jueves pasado (madrugada del viernes en España) al estrado internacional gracias a todo un hito: la subasta de uno de sus cuadros en Christie's de Nueva York, tras màs de 6 minutos de pujas, por 432.500$ (379.000€).
40 veces más de su valor inicial estimado en 10.000$.
La obra se titula "Retrato de Edmond de Belamy", y esta venta señala la llegada del arte creado por IA al mundo de las subastas.
El "autor" de Edmond de Belamy (un programa informàtico), firma su obra con un seudónimo: "min G max D x[log(D(x))] + z[log(1-D(G(z))].
No son caracteres al azar, sino una sección del algoritmo que emplea.
Dicho algoritmo tiene 2 partes, según explicó Hugo Caselles-Dupré, otro miembro del grupo: "Por una parte, está el Generador, y por otra, el Discriminador".
Alimentan el sistema con la información de 15.000 retratos pintados entre el siglo XIV y el XX.
El Generador crea una nueva imagen basado en eso, y el Discriminador intenta localizar las diferencias entre una imagen creada por humanos y una imagen creada por el Generador.
El objetivo es engañar al Discriminador para que piense que las nuevas imágenes son retratos reales.
Cuando el sistema ha "ideado" la pintura, se utiliza una impresora de inyecciòn para plasmar la imagen sobre un lienzo.
El proceso de este algoritmo es màs parecido al que realizan los artistas de lo que se podría pensar, según sus creadores.
Explica Gauthier Vernier: "El sistema mira los retratos igual que como lo haría un pintor. Es como caminar por un museo para inspirarse, solo que nosotros alimentamos el algoritmo con esos cuadros, y el algoritmo realiza esa creación visual".
Este cuadro subastado forma parte de una serie realizada por Obvious de 11 retratos de miembros de la misma familia ficticia, todos ellos nobles pertenecientes al árbol genealògico de los De Belamy.
Los lienzos van desde los más realistas hasta otros más abstractos, aunque mantienen una estética similar.
Según Juan Domingo Tardós (profesor de IA en la Universidad de Zaragoza), lo que ha hecho Obvious "no es inconcebible", y "en los próximos años veremos cosas sorprendentes. Cuando vimos el primer sistema que era capaz de detectar cáncer de piel (y lo hace mejor que muchos dermatólogos), nos quedamos con la boca abierta. En los últimos años han cuajado las técnicas necesarias para hacer este avance espectacular".
La discusión sobre si "Retrato de Edmond de Belamy" es arte o no lo es, es compleja, pero, para el profesor estaríamos hablando ya de otra materia.
Comenta: "El truco está en que el programa aprende de los humanos. El sistema es capaz de aprender los patrones de esas obras de arte y hacer variaciones, pero la mayoría no tendrán una apariencia aceptable o no serán inteligibles".
Otro interrogante que se abre ahora es quién es el autor de ese cuadro.
Afirma Casselles-Dupré, dejando aún más abierto el debate: "Si el artista es el que crea la imagen, entonces sería la máquina. Si el artista es el que tiene la visión y quiere compartir con el mundo un mensaje, entonces seríamos nosotros".
Aún con todo, a pesar del éxito de esta primera subasta de una obra de Obvious, y al contrario que en otros combates máquina-humano como los de ajedrez, de momento los segundos siguen ganando.
Pero por poco: en la misma sesión de Christie's, solamente una creaciòn de Andy Warhol, la serie de serigrafías "Myths", fue vendida por más dinero, en concreto 780.500$.
Un saludo.
Si ya era discutido definir la palabra "arte" y diferenciar lo que es de lo que no, una nueva variable se suma a este debate: la Inteligencia Artificial (IA).
Capaz de derrotar a grandes maestros del ajedrez, ahora ha sido puesta al servicio de la creación plástica por un conjunto de artistas franceses contemporáneos, programadores y amigos llamado Obvious.
Uno de sus miembros, Gauthier Vernier, explicó a la cadena estadounidense CNN cómo se dieron cuenta de que "los algoritmos eran capaces de crear nuevas imágenes", añadiendo que "nos quedamos asombrados con su potencial".
Llevan 1 año de actividad y Obvious saltó el jueves pasado (madrugada del viernes en España) al estrado internacional gracias a todo un hito: la subasta de uno de sus cuadros en Christie's de Nueva York, tras màs de 6 minutos de pujas, por 432.500$ (379.000€).
40 veces más de su valor inicial estimado en 10.000$.
La obra se titula "Retrato de Edmond de Belamy", y esta venta señala la llegada del arte creado por IA al mundo de las subastas.
El "autor" de Edmond de Belamy (un programa informàtico), firma su obra con un seudónimo: "min G max D x[log(D(x))] + z[log(1-D(G(z))].
No son caracteres al azar, sino una sección del algoritmo que emplea.
Dicho algoritmo tiene 2 partes, según explicó Hugo Caselles-Dupré, otro miembro del grupo: "Por una parte, está el Generador, y por otra, el Discriminador".
Alimentan el sistema con la información de 15.000 retratos pintados entre el siglo XIV y el XX.
El Generador crea una nueva imagen basado en eso, y el Discriminador intenta localizar las diferencias entre una imagen creada por humanos y una imagen creada por el Generador.
El objetivo es engañar al Discriminador para que piense que las nuevas imágenes son retratos reales.
Cuando el sistema ha "ideado" la pintura, se utiliza una impresora de inyecciòn para plasmar la imagen sobre un lienzo.
El proceso de este algoritmo es màs parecido al que realizan los artistas de lo que se podría pensar, según sus creadores.
Explica Gauthier Vernier: "El sistema mira los retratos igual que como lo haría un pintor. Es como caminar por un museo para inspirarse, solo que nosotros alimentamos el algoritmo con esos cuadros, y el algoritmo realiza esa creación visual".
Este cuadro subastado forma parte de una serie realizada por Obvious de 11 retratos de miembros de la misma familia ficticia, todos ellos nobles pertenecientes al árbol genealògico de los De Belamy.
Los lienzos van desde los más realistas hasta otros más abstractos, aunque mantienen una estética similar.
Según Juan Domingo Tardós (profesor de IA en la Universidad de Zaragoza), lo que ha hecho Obvious "no es inconcebible", y "en los próximos años veremos cosas sorprendentes. Cuando vimos el primer sistema que era capaz de detectar cáncer de piel (y lo hace mejor que muchos dermatólogos), nos quedamos con la boca abierta. En los últimos años han cuajado las técnicas necesarias para hacer este avance espectacular".
La discusión sobre si "Retrato de Edmond de Belamy" es arte o no lo es, es compleja, pero, para el profesor estaríamos hablando ya de otra materia.
Comenta: "El truco está en que el programa aprende de los humanos. El sistema es capaz de aprender los patrones de esas obras de arte y hacer variaciones, pero la mayoría no tendrán una apariencia aceptable o no serán inteligibles".
Otro interrogante que se abre ahora es quién es el autor de ese cuadro.
Afirma Casselles-Dupré, dejando aún más abierto el debate: "Si el artista es el que crea la imagen, entonces sería la máquina. Si el artista es el que tiene la visión y quiere compartir con el mundo un mensaje, entonces seríamos nosotros".
Aún con todo, a pesar del éxito de esta primera subasta de una obra de Obvious, y al contrario que en otros combates máquina-humano como los de ajedrez, de momento los segundos siguen ganando.
Pero por poco: en la misma sesión de Christie's, solamente una creaciòn de Andy Warhol, la serie de serigrafías "Myths", fue vendida por más dinero, en concreto 780.500$.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Todos recordamos que en el año 2.002, "Minority Report" de Steven Spielberg nos mostraba una ciudad del año 2.054 en la que se ha erradicado el crimen, gracias a un programa informático y a 3 seres "precogs" sumergidos que tenían visiones de los futuros delitos.
Ahora, un policía italiano de Nápoles llamado Elia Lombardo, que comenzó a trabajar hace 20 años en ello, se muestra orgulloso del sistema X-Law basado en Inteligencia Artificial (IA) creado por él: ha permitido reducir hasta un 22% los delitos de atracos y robos en Nápoles, la primera ciudad en probarse, y ha propiciado además un aumento del 24% de los arrestos in fraganti.
Cifras similares se han registrado en otras urbes italianas donde se acaba de aplicar, como Prato, Venecia y Mestre. Otros países, como EE.UU., ya han mostrado interés por la aplicación, que Elia Lombardo (informàtico autodidacta), ofrece de forma desinteresada.
Elia Lombardo, explica: "Comencé hace 20 años cuando tenía que preparar una estrategia para controlar el territorio. Primero estudiè los datos, pero vi que el mayor problema es que siempre nos tocaba correr detrás de los ladrones. Pensé que teníamos que hacer las cosas al revés", contó hace pocos días en un programa de la Rai.
El objetivo de Lombardo estaba claro: colocar a las patrullas policiales donde màs riesgo había de que se cometiera un delito para evitar que se produjera o, al menos, pillar al delincuente con las manos en la masa.
Prosigue Lombardo: "Estudié las dinámicas del crimen, recogí los datos y entendí que los robos y atracos pueden ser en parte previstos. Hay variables, como la presencia de eventuales presas y objetivos, las posibles vías de fuga o la cobertura criminal del lugar".
Con toda esa información, el agente descubriò que existen auténticas "reservas de caza en las que los delincuentes actúan en serie y de modo cíclico".
X-Law consigue descubrir esas áreas y los momentos en que el riesgo es mayor y las señala en un mapa. A los responsables de la Policía solamente les queda concentrar a sus agentes de guardia en esa zona para que estén cerca del lugar donde está a punto de cometerse un delito.
O, mejor aún, consigan que el criminal renuncie a llevarlo a cabo.
Al desplegar a los policías donde mayor es el peligro, se consigue además un importante ahorro de combustible, pues un coche patrulla realiza una media de 180 km./día de servicio: con el sistema X-Law hace solo unos 23-24 km.
Los inicios para Elia Lombardo no fueron fáciles, pues surgieron muchas dificultades, varios intentos y fracasos, y sus propios compañeros de la comisaría de Nápoles no se tomaban en serio su trabajo, y le tomaban el pelo continuamente.
Ahora, aquellas burlas se han convertido en admiración hacia este agente, cuya aplicación X-Law mejora conforme más información se le carga. Por eso pide la colaboración de otros cuerpos de seguridad: permite ponerse a trabajar de inmediato e incluir además los datos que ofrecen los ciudadanos.
Y es que X-Law puede controlarse incluso desde la pantalla de los mòviles, como lo hacen los agentes de Prato, localidad cercana a Florencia, donde este sistema lleva apenas 1 año funcionando.
Alesso Cesareo, comisario de Policìa de Prato, que se muestra contento con el tino mostrado por X-Law, dice: "X-Law nos ha permitido concentrar los recursos disponibles para prevenir los robos, que normalmente son delitos cuyos responsables resultan difíciles de descubrir si no los pillas in fraganti".
Un saludo.
Todos recordamos que en el año 2.002, "Minority Report" de Steven Spielberg nos mostraba una ciudad del año 2.054 en la que se ha erradicado el crimen, gracias a un programa informático y a 3 seres "precogs" sumergidos que tenían visiones de los futuros delitos.
Ahora, un policía italiano de Nápoles llamado Elia Lombardo, que comenzó a trabajar hace 20 años en ello, se muestra orgulloso del sistema X-Law basado en Inteligencia Artificial (IA) creado por él: ha permitido reducir hasta un 22% los delitos de atracos y robos en Nápoles, la primera ciudad en probarse, y ha propiciado además un aumento del 24% de los arrestos in fraganti.
Cifras similares se han registrado en otras urbes italianas donde se acaba de aplicar, como Prato, Venecia y Mestre. Otros países, como EE.UU., ya han mostrado interés por la aplicación, que Elia Lombardo (informàtico autodidacta), ofrece de forma desinteresada.
Elia Lombardo, explica: "Comencé hace 20 años cuando tenía que preparar una estrategia para controlar el territorio. Primero estudiè los datos, pero vi que el mayor problema es que siempre nos tocaba correr detrás de los ladrones. Pensé que teníamos que hacer las cosas al revés", contó hace pocos días en un programa de la Rai.
El objetivo de Lombardo estaba claro: colocar a las patrullas policiales donde màs riesgo había de que se cometiera un delito para evitar que se produjera o, al menos, pillar al delincuente con las manos en la masa.
Prosigue Lombardo: "Estudié las dinámicas del crimen, recogí los datos y entendí que los robos y atracos pueden ser en parte previstos. Hay variables, como la presencia de eventuales presas y objetivos, las posibles vías de fuga o la cobertura criminal del lugar".
Con toda esa información, el agente descubriò que existen auténticas "reservas de caza en las que los delincuentes actúan en serie y de modo cíclico".
X-Law consigue descubrir esas áreas y los momentos en que el riesgo es mayor y las señala en un mapa. A los responsables de la Policía solamente les queda concentrar a sus agentes de guardia en esa zona para que estén cerca del lugar donde está a punto de cometerse un delito.
O, mejor aún, consigan que el criminal renuncie a llevarlo a cabo.
Al desplegar a los policías donde mayor es el peligro, se consigue además un importante ahorro de combustible, pues un coche patrulla realiza una media de 180 km./día de servicio: con el sistema X-Law hace solo unos 23-24 km.
Los inicios para Elia Lombardo no fueron fáciles, pues surgieron muchas dificultades, varios intentos y fracasos, y sus propios compañeros de la comisaría de Nápoles no se tomaban en serio su trabajo, y le tomaban el pelo continuamente.
Ahora, aquellas burlas se han convertido en admiración hacia este agente, cuya aplicación X-Law mejora conforme más información se le carga. Por eso pide la colaboración de otros cuerpos de seguridad: permite ponerse a trabajar de inmediato e incluir además los datos que ofrecen los ciudadanos.
Y es que X-Law puede controlarse incluso desde la pantalla de los mòviles, como lo hacen los agentes de Prato, localidad cercana a Florencia, donde este sistema lleva apenas 1 año funcionando.
Alesso Cesareo, comisario de Policìa de Prato, que se muestra contento con el tino mostrado por X-Law, dice: "X-Law nos ha permitido concentrar los recursos disponibles para prevenir los robos, que normalmente son delitos cuyos responsables resultan difíciles de descubrir si no los pillas in fraganti".
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Con la IA se avanza para interpretar los llantos de los bebés:
https://elpais.com/tecnologia/2019/01/19/actualidad/1547926456_910406.html
Un saludo.
Con la IA se avanza para interpretar los llantos de los bebés:
https://elpais.com/tecnologia/2019/01/19/actualidad/1547926456_910406.html
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
https://www.heraldo.es/noticias/sociedad/2019/02/22/la-inteligencia-artificial-sienta-componer-junto-los-musicos-emblemotions-1293699-310.html
Un saludo.
https://www.heraldo.es/noticias/sociedad/2019/02/22/la-inteligencia-artificial-sienta-componer-junto-los-musicos-emblemotions-1293699-310.html
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Considerada la demencia más frecuente, se calcula que la enfermedad de Alzhéimer afecta a 5,7 millones de personas solamente en EE.UU., y las previsiones indican que esta cifra se duplicará con creces en el año 2050.
En España los afectados son unos 800.000 según la Sociedad Española de Neurología.
El diagnóstico precoz resulta esencial para que el enfermo se beneficie de los pocos tratamientos disponibles, pero ningùn análisis ni estudio de neuroimagen ofrecen por sí solos un diagnóstico concluyente mientras se permanece con vida, y los médicos deben llevar a cabo una batería de pruebas clínicas y neuropsicològicas.
Por ello, existe un gran interés en desarrollar la inteligencia artificial (IA) como instrumento de detección del alzhéimer a partir de neuroimágenes.
Investigadores de la Universidad de California en San Francisco (UCSF) han logrado entrenar un algoritmo de IA que reconozca uno de los primeros signos de la enfermedad, la disminución del consumo de glucosa en el cerebro, en imágenes captadas mediante tomografía de emisiòn de positrones (TEP).
El algoritmo acertó el diagnóstico en casi todos los casos analizados, según el estudio.
En la TEP se administra al paciente, por vìa oral o venosa, una minúscula cantidad de una sustancia radioactiva que permite captar imágenes tridimensionales del metabolismo, la circulación y otras actividades celulares.
La TEP se presta bien como herramienta diagnóstica de IA porque el alzhéimer provoca cambios sutiles en el metabolismo cerebral años antes de que el tejido nervioso comience a degenerar, afirma Jae Ho Sohn, radiólogo en la UCSF y uno de los autores del estudio.
Esos cambios resultan "sumamente difíciles de percibir por los radiólogos", subraya Jae Ho Sohn.
El algoritmo se entrenó y se sometió a prueba con 2.100 imàgenes de TEP obtenidas de un millar de personas mayores de 55 años. Las imágenes procedían de un estudio de seguimiento de 12 años de personas a las que se acabó diagnosticando esta demencia, así como a afectados por leves deterioros de la memoria y sujetos de control sanos.
El entrenamiento del algoritmo se llevó a cabo con el 90% de los datos y se puso a prueba con el 10% restante.
A continuación, se volviò a probar con un segundo conjunto de datos independiente correspondiente a 40 pacientes sometidos a seguimiento durante una década.
El algoritmo demostró una elevada sensibilidad: acertó en el 81% de los pacientes del primer grupo problema, y el 100% del segundo, a quienes se les diagnosticaría la enfermedad 6 años después en promedio.
Los resultados se publicaron en "Radiology".
El algoritmo se basa en el aprendizaje profundo, una técnica de aprendizaje automático que se sirve de redes neuronales artificiales que han sido programadas para aprender de ejemplos.
"Esta es una de las primeras aplicaciones prometedoras de ese tipo de aprendizaje en el diagnóstico del alzhéimer. El modelo funciona muy bien cuando se trata de pacientes con un diagnòstico leve o tardío, pero no tanto en los inicios de la enfermedad, que siguen siendo, pues, una de las grandes asignaturas pendientes en este àmbito", afirma Christian Salvatore, médico del Consejo Nacional de Investigación de Italia, al margen del estudio.
Un saludo.
Considerada la demencia más frecuente, se calcula que la enfermedad de Alzhéimer afecta a 5,7 millones de personas solamente en EE.UU., y las previsiones indican que esta cifra se duplicará con creces en el año 2050.
En España los afectados son unos 800.000 según la Sociedad Española de Neurología.
El diagnóstico precoz resulta esencial para que el enfermo se beneficie de los pocos tratamientos disponibles, pero ningùn análisis ni estudio de neuroimagen ofrecen por sí solos un diagnóstico concluyente mientras se permanece con vida, y los médicos deben llevar a cabo una batería de pruebas clínicas y neuropsicològicas.
Por ello, existe un gran interés en desarrollar la inteligencia artificial (IA) como instrumento de detección del alzhéimer a partir de neuroimágenes.
Investigadores de la Universidad de California en San Francisco (UCSF) han logrado entrenar un algoritmo de IA que reconozca uno de los primeros signos de la enfermedad, la disminución del consumo de glucosa en el cerebro, en imágenes captadas mediante tomografía de emisiòn de positrones (TEP).
El algoritmo acertó el diagnóstico en casi todos los casos analizados, según el estudio.
En la TEP se administra al paciente, por vìa oral o venosa, una minúscula cantidad de una sustancia radioactiva que permite captar imágenes tridimensionales del metabolismo, la circulación y otras actividades celulares.
La TEP se presta bien como herramienta diagnóstica de IA porque el alzhéimer provoca cambios sutiles en el metabolismo cerebral años antes de que el tejido nervioso comience a degenerar, afirma Jae Ho Sohn, radiólogo en la UCSF y uno de los autores del estudio.
Esos cambios resultan "sumamente difíciles de percibir por los radiólogos", subraya Jae Ho Sohn.
El algoritmo se entrenó y se sometió a prueba con 2.100 imàgenes de TEP obtenidas de un millar de personas mayores de 55 años. Las imágenes procedían de un estudio de seguimiento de 12 años de personas a las que se acabó diagnosticando esta demencia, así como a afectados por leves deterioros de la memoria y sujetos de control sanos.
El entrenamiento del algoritmo se llevó a cabo con el 90% de los datos y se puso a prueba con el 10% restante.
A continuación, se volviò a probar con un segundo conjunto de datos independiente correspondiente a 40 pacientes sometidos a seguimiento durante una década.
El algoritmo demostró una elevada sensibilidad: acertó en el 81% de los pacientes del primer grupo problema, y el 100% del segundo, a quienes se les diagnosticaría la enfermedad 6 años después en promedio.
Los resultados se publicaron en "Radiology".
El algoritmo se basa en el aprendizaje profundo, una técnica de aprendizaje automático que se sirve de redes neuronales artificiales que han sido programadas para aprender de ejemplos.
"Esta es una de las primeras aplicaciones prometedoras de ese tipo de aprendizaje en el diagnóstico del alzhéimer. El modelo funciona muy bien cuando se trata de pacientes con un diagnòstico leve o tardío, pero no tanto en los inicios de la enfermedad, que siguen siendo, pues, una de las grandes asignaturas pendientes en este àmbito", afirma Christian Salvatore, médico del Consejo Nacional de Investigación de Italia, al margen del estudio.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Expertos en Inteligencia Artificial de Samsung han logrado crear, mediante el desarrollo de un algoritmo, movimientos de un rostro que parecen reales a partir de una sola fotografía.
Ejemplo del cuadro de la Mona Lisa:
https://www.heraldo.es/noticias/sociedad/2019/05/27/la-tecnologia-devuelve-a-la-vida-a-la-mona-lisa-1317223.html
Un saludo.
Expertos en Inteligencia Artificial de Samsung han logrado crear, mediante el desarrollo de un algoritmo, movimientos de un rostro que parecen reales a partir de una sola fotografía.
Ejemplo del cuadro de la Mona Lisa:
https://www.heraldo.es/noticias/sociedad/2019/05/27/la-tecnologia-devuelve-a-la-vida-a-la-mona-lisa-1317223.html
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Flick4- Cantidad de envíos : 6369
Edad : 57
Localización : Barcelona
Fecha de inscripción : 21/10/2012
Música e inteligencia artificial.
Hola.
Desde la primera infancia en adelante, nuestros hijos se desarrollan explorando su entorno y experimentando con el movimiento y el habla. Recopilan datos, se adaptan a nuevas situaciones y transfieren la pericia adquirida en una materia a otras.
Robotistas, neurocientíficos y psicólogos llevan desde los inicios del siglo XXI investigando vías para construir màquinas que imiten ese desarrollo tan espontáneo. Las colaboraciones entre ellos han cuajado por fin en androides capaces de mover objetos, adquirir vocabulario bàsico y capacidades numéricas y que llegan incluso a exhibir signos de conducta social.
Al mismo tiempo, estos sistemas de Inteligencia Artificial (IA) están ayudando a los psicólogos a entender cómo aprenden los niños pequeños.
Nuestro cerebro trata constantemente de predecir el futuro, y a tal fin, actualiza sus expectativas para ajustarse a la realidad. Los centros de procesamiento superiores del cerebro refinan continuamente sus modelos internos conforme a las señales recibidas desde los órganos sensoriales.
Considere nuestro sistema visual, de una gran complejidad.
Las células nerviosas del ojo procesan los rasgos básicos de una imagen antes de transferir esa informaciòn a las regiones del nivel superior, que interpretan el significado global de una escena.
Curiosamente, las conexiones neuronales también funcionan en sentido contrario: desde los centros de procesamiento de orden superior (como las áreas en las cortezas parietal o temporal) a los inferiores (como la corteza visual primaria y el núcleo geniculado lateral).
Algunos neurocientíficos creen que estas conexiones "descendentes" transportan las predicciones del cerebro a los niveles inferiores, y que eso influye en lo que vemos.
Mientras Rajesh P. N. Rao realizaba el doctorado en la Universidad de Rochester, él y su director de tesis, el neurocientífico computacional Dana H. Ballard, actualmente en la Universidad de Texas en Austin, fueron los primeros en poner a prueba tal codificación predictiva en una red neuronal artificial.
Las redes neuronales, una clase de algoritmos informàticos inspirados en el cerebro humano, adaptan de forma progresiva sus parámetros internos para generar, a partir de una entrada, la salida requerida.
En ese experimento publicado en 1.999 en Nature Neuroscience, los investigadores simularon las conexiones neuronales de la corteza visual, incluidas las descendentes (que transmiten pronósticos) y las ascendentes (que llevan las señales sensoriales del mundo exterior).
Tras entrenar la red con fotografías de naturaleza, vieron que aprendía a reconocer las características clave de una imagen: por ejemplo, las rayas de una cebra.
Una diferencia fundamental entre los seres humanos y muchos sistemas actuales de IA estriba en que nosotros disponemos de un cuerpo que nos sirve para desplazarnos por el mundo y actuar con èl.
Los bebés y los niños de 1 o 2 años se desarrollan experimentando con los movimientos de sus brazos, piernas y dedos, y examinando todo aquello que cae dentro de su alcance.
Aprenden de forma autónoma a andar, a hablar y a reconocer objetos y personas.
De qué modo lo consiguen sin necesitar apenas orientación constituye un área clave de investigación tanto para psicólogos del desarrollo como para robotistas.
Las colaboraciones entre ellos están conduciendo a sorprendentes hallazgos en ambos campos.
En una serie de experimentos pioneros a finales de los años 90, el robotista Jun Tani diseñó junto con otros investigadores una red neuronal que se basaba en predicciones para aprender movimientos básicos y la puso a prueba en robots.
Descubrió que las máquinas podían lograr ciertas habilidades rudimentarias, como navegar por entornos simples, imitar movimientos de las manos y obedecer órdenes verbales básicas, como "apuntar" y "tocar".
En trabajos más recientes, el robotista Angelo Cangelosi, de la Universidad de Plymouth, y Linda B. Smith, psicòloga del desarrollo de la Universidad de Indiana en Bloomington, han demostrado el papel crucial que desempeña el cuerpo en la adquisición de conocimientos.
"La forma del cuerpo del robot y la clase de cosas que puede hacer influyen en las experiencias que tiene y en lo que puede aprender en ellas", asegura Smith.
Uno de los principales sujetos de prueba es iCub: un robot humanoide de poco menos de 1 m. de altura que un equipo del Instituto Italiano de Tecnologìa construyó con fines de investigación.
No incorpora ninguna función preprogramada, lo que permite que se implementen algoritmos específicos para cada experimento.
En un estudio realizado en 2.015, Cangelosi, Smith y sus colegas dotaron a iCub de una red neuronal que le otorgaba la capacidad de establecer asociaciones simples.
Hallaron que asimilaba nuevas palabras con mayor facilidad si los nombres de los objetos se vinculaban sistemáticamente con posiciones corporales específicas. Colocaron repetidas veces una pelota o una copa a la izquierda o a la derecha del androide, de modo que vinculara el objeto con el movimiento requerido para mirarlo, como inclinar la cabeza.
Después, emparejaron las acciones con los nombres de los objetos. El robot aprendía mejor palabras básicas si los objetos correspondientes aparecían en una ubicación determinada en vez de en múltiples sitios.
Cuando repitieron el experimento con niños de 16 meses, llegaron a resultados similares: relacionar objetos con posturas concretas les ayudaba a aprender asociaciones de palabras.
El laboratorio de Cangelosi está extendiendo esta técnica para enseñar a los robots palabras más complejas, como "este" o "aquel", que no se hallan asociadas a cosas específicas.
El uso del cuerpo puede, además, favorecer que los niños y los robots adquieran destrezas numéricas básicas. Los estudios muestran que los niños que encuentran dificultades para visualizar mentalmente sus dedos, también poseen capacidades aritméticas más flojas.
En un trabajo del año 2.014, Cangelosi y su equipo descubrieron que cuando se enseñaba a los robots a contar con los dedos, sus redes neuronales representaban cantidades con mayor exactitud que cuando se les instruía utilizando solamente los nombres de los números.
Fin de la primera parte.
Un saludo.
Desde la primera infancia en adelante, nuestros hijos se desarrollan explorando su entorno y experimentando con el movimiento y el habla. Recopilan datos, se adaptan a nuevas situaciones y transfieren la pericia adquirida en una materia a otras.
Robotistas, neurocientíficos y psicólogos llevan desde los inicios del siglo XXI investigando vías para construir màquinas que imiten ese desarrollo tan espontáneo. Las colaboraciones entre ellos han cuajado por fin en androides capaces de mover objetos, adquirir vocabulario bàsico y capacidades numéricas y que llegan incluso a exhibir signos de conducta social.
Al mismo tiempo, estos sistemas de Inteligencia Artificial (IA) están ayudando a los psicólogos a entender cómo aprenden los niños pequeños.
Nuestro cerebro trata constantemente de predecir el futuro, y a tal fin, actualiza sus expectativas para ajustarse a la realidad. Los centros de procesamiento superiores del cerebro refinan continuamente sus modelos internos conforme a las señales recibidas desde los órganos sensoriales.
Considere nuestro sistema visual, de una gran complejidad.
Las células nerviosas del ojo procesan los rasgos básicos de una imagen antes de transferir esa informaciòn a las regiones del nivel superior, que interpretan el significado global de una escena.
Curiosamente, las conexiones neuronales también funcionan en sentido contrario: desde los centros de procesamiento de orden superior (como las áreas en las cortezas parietal o temporal) a los inferiores (como la corteza visual primaria y el núcleo geniculado lateral).
Algunos neurocientíficos creen que estas conexiones "descendentes" transportan las predicciones del cerebro a los niveles inferiores, y que eso influye en lo que vemos.
Mientras Rajesh P. N. Rao realizaba el doctorado en la Universidad de Rochester, él y su director de tesis, el neurocientífico computacional Dana H. Ballard, actualmente en la Universidad de Texas en Austin, fueron los primeros en poner a prueba tal codificación predictiva en una red neuronal artificial.
Las redes neuronales, una clase de algoritmos informàticos inspirados en el cerebro humano, adaptan de forma progresiva sus parámetros internos para generar, a partir de una entrada, la salida requerida.
En ese experimento publicado en 1.999 en Nature Neuroscience, los investigadores simularon las conexiones neuronales de la corteza visual, incluidas las descendentes (que transmiten pronósticos) y las ascendentes (que llevan las señales sensoriales del mundo exterior).
Tras entrenar la red con fotografías de naturaleza, vieron que aprendía a reconocer las características clave de una imagen: por ejemplo, las rayas de una cebra.
Una diferencia fundamental entre los seres humanos y muchos sistemas actuales de IA estriba en que nosotros disponemos de un cuerpo que nos sirve para desplazarnos por el mundo y actuar con èl.
Los bebés y los niños de 1 o 2 años se desarrollan experimentando con los movimientos de sus brazos, piernas y dedos, y examinando todo aquello que cae dentro de su alcance.
Aprenden de forma autónoma a andar, a hablar y a reconocer objetos y personas.
De qué modo lo consiguen sin necesitar apenas orientación constituye un área clave de investigación tanto para psicólogos del desarrollo como para robotistas.
Las colaboraciones entre ellos están conduciendo a sorprendentes hallazgos en ambos campos.
En una serie de experimentos pioneros a finales de los años 90, el robotista Jun Tani diseñó junto con otros investigadores una red neuronal que se basaba en predicciones para aprender movimientos básicos y la puso a prueba en robots.
Descubrió que las máquinas podían lograr ciertas habilidades rudimentarias, como navegar por entornos simples, imitar movimientos de las manos y obedecer órdenes verbales básicas, como "apuntar" y "tocar".
En trabajos más recientes, el robotista Angelo Cangelosi, de la Universidad de Plymouth, y Linda B. Smith, psicòloga del desarrollo de la Universidad de Indiana en Bloomington, han demostrado el papel crucial que desempeña el cuerpo en la adquisición de conocimientos.
"La forma del cuerpo del robot y la clase de cosas que puede hacer influyen en las experiencias que tiene y en lo que puede aprender en ellas", asegura Smith.
Uno de los principales sujetos de prueba es iCub: un robot humanoide de poco menos de 1 m. de altura que un equipo del Instituto Italiano de Tecnologìa construyó con fines de investigación.
No incorpora ninguna función preprogramada, lo que permite que se implementen algoritmos específicos para cada experimento.
En un estudio realizado en 2.015, Cangelosi, Smith y sus colegas dotaron a iCub de una red neuronal que le otorgaba la capacidad de establecer asociaciones simples.
Hallaron que asimilaba nuevas palabras con mayor facilidad si los nombres de los objetos se vinculaban sistemáticamente con posiciones corporales específicas. Colocaron repetidas veces una pelota o una copa a la izquierda o a la derecha del androide, de modo que vinculara el objeto con el movimiento requerido para mirarlo, como inclinar la cabeza.
Después, emparejaron las acciones con los nombres de los objetos. El robot aprendía mejor palabras básicas si los objetos correspondientes aparecían en una ubicación determinada en vez de en múltiples sitios.
Cuando repitieron el experimento con niños de 16 meses, llegaron a resultados similares: relacionar objetos con posturas concretas les ayudaba a aprender asociaciones de palabras.
El laboratorio de Cangelosi está extendiendo esta técnica para enseñar a los robots palabras más complejas, como "este" o "aquel", que no se hallan asociadas a cosas específicas.
El uso del cuerpo puede, además, favorecer que los niños y los robots adquieran destrezas numéricas básicas. Los estudios muestran que los niños que encuentran dificultades para visualizar mentalmente sus dedos, también poseen capacidades aritméticas más flojas.
En un trabajo del año 2.014, Cangelosi y su equipo descubrieron que cuando se enseñaba a los robots a contar con los dedos, sus redes neuronales representaban cantidades con mayor exactitud que cuando se les instruía utilizando solamente los nombres de los números.
Fin de la primera parte.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Continúo transcribiendo el texto.
La novedad también facilita el aprendizaje. En un artículo publicado en 2.015 en la revista Science, investigadores de la Universidad Johns Hopkins refirieron que, cuando los niños se topan con algo desconocido, como un objeto sólido que parece atravesar una pared, exploran ese fallo de sus expectativas. En términos prosaicos, su impulso inherente a reducir los errores de predicción les ayuda en su desarrollo.
Pierre-Yves Oudeyer, robotista del Instituto Nacional de Investigaciòn en Informática y Automática (INRIA) de Francia, cree que el proceso de aprendizaje es más complejo.
Sostiene que los niños buscan activamente, y de manera sorprendentemente refinada, aquellos objetos de su entorno que les brindan mayores oportunidades para aprender. Por ejemplo, una niña pequeña preferirà jugar con un coche de juguete que con un rompecabezas de 100 piezas, pues posiblemente su nivel de conocimientos le permitirá formular hipòtesis sobre el primero más sencillas de verificar.
Para corroborar esta teoría, Oudeyer y sus colegas dotaron a sistemas robóticos con una característica que denominan "motivación intrínseca", la cual premia la reducción en el error de predicción.
(Para una máquina inteligente, la recompensa puede equivaler a un valor numérico que está programado para maximizarse en función de sus acciones.)
Este mecanismo posibilitó que un robot AIBO de Sony (un pequeño artilugio parecido a un cachorro de perro, con capacidades motoras y sensoriales básicas) buscara de forma autónoma aquellas tareas que ofrecían un mayor potencial de aprendizaje.
Los cachorros robóticos fueron capaces de adquirir habilidades básicas (agarrar objetos, interactuar vocalmente con otro robot) sin necesidad de que se les programara para conseguir fines tan específicos.
Este resultado es "un efecto secundario de la exploración del mundo que efectúa el robot, impulsada por su motivación para mejorar sus predicciones", explica Oudeyer.
Cabe destacar que, si bien los robots pasaron por fases de entrenamiento similares, el azar tuvo una funciòn destacada en lo que aprendieron. Unos exploraron un poco menos, otros un poco más, de modo que acabaron conociendo cosas distintas.
Para Oudeyer, esta variación de resultados sugiere que, incluso con una programación idéntica y un entorno educativo similar, los robots pueden alcanzar diferentes niveles de habilidad, algo parecido a lo que sucede en un aula típica.
Màs recientemente, el grupo de Oudeyer recurrió a simulaciones por ordenador para mostrar que un tracto vocal robòtico equipado con este tipo de algoritmo predictivo podía aprender elementos básicos del lenguaje.
En la actualidad colabora con la neurocientífica cognitiva Jacqueline Gottlieb, de la Universidad de Columbia, para investigar si tal motivación intrínseca impulsada por predicciones también subyace a la neurobiología de la curiosidad humana.
En su opinión, una investigación a fondo de estos modelos podría ayudar a los psicólogos a comprender lo que sucede en el cerebro de niños con discapacidades y trastornos del desarrollo.
Nuestro cerebro también trata de predecir el futuro cuando interactuamos con otras personas: intentamos deducir sin cesar las intenciones de la gente y anticipar lo que dirán a continuación. Sorprendentemente, el impulso a minimizar los errores de predicción puede inducir por sí solo una conducta social elemental, como demostraron en 2.016 la robotista Yukie Nagai y su grupo de la Universidad de Osaka.
Los investigadores hallaron que, incluso cuando el robot iCub no era programado con una capacidad intrínseca de socializar, la motivación para reducir los errores de predicción lo conducìa a comportarse de manera servicial.
Por ejemplo, después de haberle enseñado a empujar un camión de juguete, si el robot observaba que una persona no lograba completar esa misma acción, a menudo èl mismo desplazaba el objeto al lugar correcto, simplemente para aumentar la certeza de que el camión se encontraba en una ubicación dada.
Nagai, actualmente en el Instituto Nacional de Tecnología de la Información y Comunicación de Japón, cree que es posible que el desarrollo infantil se produzca de forma similar.
"No hace falta que el niño tenga intención de ayudar a otras personas", argumenta.
La motivación para minimizar el error de predicción puede por sí sola iniciar habilidades sociales elementales.
El procesamiento predictivo también ayudaría a los científicos a comprender trastornos del desarrollo, como el autismo. Según Nagai, ciertos individuos pueden presentar una mayor sensibilidad a los errores de predicción, lo cual convierte en abrumadora toda la información sensorial entrante y explicaría su atracciòn por las conductas repetitivas, cuyas consecuencias resultan sumamente predecibles.
Fin de la segunda parte: solamente queda una tercera.
Un saludo.
Continúo transcribiendo el texto.
La novedad también facilita el aprendizaje. En un artículo publicado en 2.015 en la revista Science, investigadores de la Universidad Johns Hopkins refirieron que, cuando los niños se topan con algo desconocido, como un objeto sólido que parece atravesar una pared, exploran ese fallo de sus expectativas. En términos prosaicos, su impulso inherente a reducir los errores de predicción les ayuda en su desarrollo.
Pierre-Yves Oudeyer, robotista del Instituto Nacional de Investigaciòn en Informática y Automática (INRIA) de Francia, cree que el proceso de aprendizaje es más complejo.
Sostiene que los niños buscan activamente, y de manera sorprendentemente refinada, aquellos objetos de su entorno que les brindan mayores oportunidades para aprender. Por ejemplo, una niña pequeña preferirà jugar con un coche de juguete que con un rompecabezas de 100 piezas, pues posiblemente su nivel de conocimientos le permitirá formular hipòtesis sobre el primero más sencillas de verificar.
Para corroborar esta teoría, Oudeyer y sus colegas dotaron a sistemas robóticos con una característica que denominan "motivación intrínseca", la cual premia la reducción en el error de predicción.
(Para una máquina inteligente, la recompensa puede equivaler a un valor numérico que está programado para maximizarse en función de sus acciones.)
Este mecanismo posibilitó que un robot AIBO de Sony (un pequeño artilugio parecido a un cachorro de perro, con capacidades motoras y sensoriales básicas) buscara de forma autónoma aquellas tareas que ofrecían un mayor potencial de aprendizaje.
Los cachorros robóticos fueron capaces de adquirir habilidades básicas (agarrar objetos, interactuar vocalmente con otro robot) sin necesidad de que se les programara para conseguir fines tan específicos.
Este resultado es "un efecto secundario de la exploración del mundo que efectúa el robot, impulsada por su motivación para mejorar sus predicciones", explica Oudeyer.
Cabe destacar que, si bien los robots pasaron por fases de entrenamiento similares, el azar tuvo una funciòn destacada en lo que aprendieron. Unos exploraron un poco menos, otros un poco más, de modo que acabaron conociendo cosas distintas.
Para Oudeyer, esta variación de resultados sugiere que, incluso con una programación idéntica y un entorno educativo similar, los robots pueden alcanzar diferentes niveles de habilidad, algo parecido a lo que sucede en un aula típica.
Màs recientemente, el grupo de Oudeyer recurrió a simulaciones por ordenador para mostrar que un tracto vocal robòtico equipado con este tipo de algoritmo predictivo podía aprender elementos básicos del lenguaje.
En la actualidad colabora con la neurocientífica cognitiva Jacqueline Gottlieb, de la Universidad de Columbia, para investigar si tal motivación intrínseca impulsada por predicciones también subyace a la neurobiología de la curiosidad humana.
En su opinión, una investigación a fondo de estos modelos podría ayudar a los psicólogos a comprender lo que sucede en el cerebro de niños con discapacidades y trastornos del desarrollo.
Nuestro cerebro también trata de predecir el futuro cuando interactuamos con otras personas: intentamos deducir sin cesar las intenciones de la gente y anticipar lo que dirán a continuación. Sorprendentemente, el impulso a minimizar los errores de predicción puede inducir por sí solo una conducta social elemental, como demostraron en 2.016 la robotista Yukie Nagai y su grupo de la Universidad de Osaka.
Los investigadores hallaron que, incluso cuando el robot iCub no era programado con una capacidad intrínseca de socializar, la motivación para reducir los errores de predicción lo conducìa a comportarse de manera servicial.
Por ejemplo, después de haberle enseñado a empujar un camión de juguete, si el robot observaba que una persona no lograba completar esa misma acción, a menudo èl mismo desplazaba el objeto al lugar correcto, simplemente para aumentar la certeza de que el camión se encontraba en una ubicación dada.
Nagai, actualmente en el Instituto Nacional de Tecnología de la Información y Comunicación de Japón, cree que es posible que el desarrollo infantil se produzca de forma similar.
"No hace falta que el niño tenga intención de ayudar a otras personas", argumenta.
La motivación para minimizar el error de predicción puede por sí sola iniciar habilidades sociales elementales.
El procesamiento predictivo también ayudaría a los científicos a comprender trastornos del desarrollo, como el autismo. Según Nagai, ciertos individuos pueden presentar una mayor sensibilidad a los errores de predicción, lo cual convierte en abrumadora toda la información sensorial entrante y explicaría su atracciòn por las conductas repetitivas, cuyas consecuencias resultan sumamente predecibles.
Fin de la segunda parte: solamente queda una tercera.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
A continuación la tercera y última parte.
Harold Bekkering, psicólogo cognitivo de la Universidad de Radboud en los Países Bajos, cree que el procesamiento predictivo también contribuiría a explicar el comportamiento de las personas con trastorno por déficit de atención e hiperactividad.
De acuerdo con esta teoría, mientras que los individuos autistas tenderían a protegerse de lo desconocido, aquellos que muestran problemas para concentrarse se verían atraídos permanentemente por los estímulos impredecibles de su entorno, explica Bekkering.
Algunas personas que son sensibles al mundo lo exploran, mientras que otras que son demasiado sensibles al mundo se blindan a sí mismas. En un marco de codificaciòn predictivo se pueden simular muy bien ambas pautas.
Nagal espera evaluar esta teoría efectuando estudios de "reflejo cognitivo", en los que los robots equipados con algoritmos de aprendizaje predictivo interactuaràn con seres humanos. A medida que el robot y la persona se comuniquen mediante lenguaje corporal y expresiones faciales, la máquina ajustará su comportamiento al de su interlocutor, reproduciendo de ese modo las preferencias de la persona en cuanto a predictibilidad.
Así, los investigadores podrán emplear robots para modelizar la cognición humana, y luego examinar la arquitectura neuronal de la máquina para intentar descifrar lo que ocurre en nuestro cerebro.
Vaticina Nagal: "Podremos exteriorizar en los robots nuestras características para comprendernos mejor a nosotros mismos".
Los estudios con niños robòticos han ayudado a responder ciertas preguntas clave en psicología, incluida la importancia tanto del procesamiento predictivo como del cuerpo en el desarrollo cognitivo.
Sin embargo, los robots capaces de desarrollar una inteligencia similar a la humana distan de convertirse en realidad.
Chappie aún habita en el reino de la ciencia ficciòn: es una película del 2.015 en la que Deon es un ingeniero que quiere crear una máquina capaz de pensar y de sentir. Para ello escribe un programa de IA que puede aprender como un niño. La máquina parte de un estado de relativa tabula rasa y, solo a partir de la observación y la experimentaciòn con el entorno, adquiere conocimientos generales, el lenguaje y otras habilidades complejas: algo inalcanzable para los sistemas de IA màs avanzados de hoy.
Para empezar, los cientìficos han de vencer obstáculos técnicos, como la fragilidad del cuerpo y las limitadas capacidades sensoriales de la mayoría de los robots. En este sentido, los avances en campos como la robótica blanda y la visión artificial podrían aportar soluciones.
La increíble complejidad del propio cerebro representa un desafío aùn mayor.
A pesar de los esfuerzos que se realizan en numerosos frentes para obtener modelos de la mente, aún queda lejos la posibilidad de diseñar una máquina capaz de rivalizar con ella.
Además, la inteligencia no solo necesita una maquinaria y circuitos apropiados. Una larga línea de investigaciòn ha demostrado que los cuidadores desempeñan un papel crucial en el desarrollo infantil. El proceso de acumulación gradual de conocimientos tambièn puede resultar indispensable. El desarrollo es un sistema de cascadas extremadamente complejo, y lo que sucede un día prepara el terreno para el siguiente. Como consecuencia, quizá no sea posible construir una IA de nivel humano sin integrar de algún modo el proceso de aprendizaje paso a paso que tiene lugar a lo largo de la vida.
Poco antes de su muerte, Richard Feynman escribió: "Lo que no puedo crear, no lo entiendo".
En el libro publicado en 2.016, Exploring robotic minds (Explorar las mentes robóticas), Tani da un giro a esta idea y sostiene: "Entiendo aquello que puedo crear".
Argumenta que la mejor forma de entender la mente humana es sintetizando una.
Quizás algún día los seres humanos logremos construir un robot capaz de explorar, adaptarse y desarrollarse como un niño, tal vez junto con sustitutos de cuidador que le brinden el afecto y la orientaciòn necesarios para un crecimiento saludable.
Entretanto, los robots de tipo infantil continuarán proporcionando información valiosa acerca de cómo aprenden los niños y revelando lo que sucede cuando los mecanismos básicos se desvían de su funcionamiento normal.
Un saludo.
A continuación la tercera y última parte.
Harold Bekkering, psicólogo cognitivo de la Universidad de Radboud en los Países Bajos, cree que el procesamiento predictivo también contribuiría a explicar el comportamiento de las personas con trastorno por déficit de atención e hiperactividad.
De acuerdo con esta teoría, mientras que los individuos autistas tenderían a protegerse de lo desconocido, aquellos que muestran problemas para concentrarse se verían atraídos permanentemente por los estímulos impredecibles de su entorno, explica Bekkering.
Algunas personas que son sensibles al mundo lo exploran, mientras que otras que son demasiado sensibles al mundo se blindan a sí mismas. En un marco de codificaciòn predictivo se pueden simular muy bien ambas pautas.
Nagal espera evaluar esta teoría efectuando estudios de "reflejo cognitivo", en los que los robots equipados con algoritmos de aprendizaje predictivo interactuaràn con seres humanos. A medida que el robot y la persona se comuniquen mediante lenguaje corporal y expresiones faciales, la máquina ajustará su comportamiento al de su interlocutor, reproduciendo de ese modo las preferencias de la persona en cuanto a predictibilidad.
Así, los investigadores podrán emplear robots para modelizar la cognición humana, y luego examinar la arquitectura neuronal de la máquina para intentar descifrar lo que ocurre en nuestro cerebro.
Vaticina Nagal: "Podremos exteriorizar en los robots nuestras características para comprendernos mejor a nosotros mismos".
Los estudios con niños robòticos han ayudado a responder ciertas preguntas clave en psicología, incluida la importancia tanto del procesamiento predictivo como del cuerpo en el desarrollo cognitivo.
Sin embargo, los robots capaces de desarrollar una inteligencia similar a la humana distan de convertirse en realidad.
Chappie aún habita en el reino de la ciencia ficciòn: es una película del 2.015 en la que Deon es un ingeniero que quiere crear una máquina capaz de pensar y de sentir. Para ello escribe un programa de IA que puede aprender como un niño. La máquina parte de un estado de relativa tabula rasa y, solo a partir de la observación y la experimentaciòn con el entorno, adquiere conocimientos generales, el lenguaje y otras habilidades complejas: algo inalcanzable para los sistemas de IA màs avanzados de hoy.
Para empezar, los cientìficos han de vencer obstáculos técnicos, como la fragilidad del cuerpo y las limitadas capacidades sensoriales de la mayoría de los robots. En este sentido, los avances en campos como la robótica blanda y la visión artificial podrían aportar soluciones.
La increíble complejidad del propio cerebro representa un desafío aùn mayor.
A pesar de los esfuerzos que se realizan en numerosos frentes para obtener modelos de la mente, aún queda lejos la posibilidad de diseñar una máquina capaz de rivalizar con ella.
Además, la inteligencia no solo necesita una maquinaria y circuitos apropiados. Una larga línea de investigaciòn ha demostrado que los cuidadores desempeñan un papel crucial en el desarrollo infantil. El proceso de acumulación gradual de conocimientos tambièn puede resultar indispensable. El desarrollo es un sistema de cascadas extremadamente complejo, y lo que sucede un día prepara el terreno para el siguiente. Como consecuencia, quizá no sea posible construir una IA de nivel humano sin integrar de algún modo el proceso de aprendizaje paso a paso que tiene lugar a lo largo de la vida.
Poco antes de su muerte, Richard Feynman escribió: "Lo que no puedo crear, no lo entiendo".
En el libro publicado en 2.016, Exploring robotic minds (Explorar las mentes robóticas), Tani da un giro a esta idea y sostiene: "Entiendo aquello que puedo crear".
Argumenta que la mejor forma de entender la mente humana es sintetizando una.
Quizás algún día los seres humanos logremos construir un robot capaz de explorar, adaptarse y desarrollarse como un niño, tal vez junto con sustitutos de cuidador que le brinden el afecto y la orientaciòn necesarios para un crecimiento saludable.
Entretanto, los robots de tipo infantil continuarán proporcionando información valiosa acerca de cómo aprenden los niños y revelando lo que sucede cuando los mecanismos básicos se desvían de su funcionamiento normal.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Los sistemas de inteligencia atificial (IA) siguen refinando sus capacidades.
El programa Pluribus ha logrado por primera vez vencer a los humanos en partidas complejas de Texas Hold'em con 6 jugadores: aprende jugando repetidamente contra sí mismo.
Más de 20 años después de que Deep Blue batiese a Gary Kásparov, las máquinas han derrotado a los mejores jugadores del mundo en una amplia variedad de retos, pero el póquer era, hasta ahora, uno de los pocos que se les resistía.
Investigadores de la Universidad Carnegie Mellon de Pittsburgh han diseñado un programa de IA que ha sido capaz de dominar a los mejores profesionales en varias series de partidas de Texas Hold'em de 6 jugadores, la variedad más popular en todo el mundo, según detallan en la revista Science.
El póquer cuenta con una dificultad que otros juegos como el ajedrez no tienen.
Se trata de un escenario de "informaciòn asimétrica".
Dado que algunas de las cartas sobre la mesa permanecen cubiertas, el jugador sólo puede conocer una parte de lo que está sucediendo.
Así que, para ganar, necesita interpretar o intuir el comportamiento de los otros jugadores, lo que incluye identificar cuàndo un rival se está marcando un farol.
Y engañarle con faroles propios.
El Texas Hold'em en su versión multijugador es una variante especialmente compleja, ya que los participantes desarrollan estrategias de apuestas que siguen a lo largo de decenas de manos.
La combinación de sistemas de aprendizaje reforzado con nuevos algoritmos ha sido clave para que la máquina supere a los humanos.
Bautizado como Pluribus, el sistema descubre cómo ganar jugando una y otra vez contra sí mismo.
"Hasta ahora, los grandes logros de la IA en materia de razonamiento estratégico se habían limitado a competiciones de 2 jugadores", señala Thomas Sandholm, coautor del trabajo.
"Pero la capacidad de vencer a otros 5 jugadores en un juego tan complejo, abre nuevas oportunidades de utilizar IA para resolver una amplia variedad de problemas del mundo real".
Para la primera ronda de apuestas Pluribus esboza una estrategia en base a partidas simuladas que juega contra 6 copias de sì mismo. A partir de ese momento, realiza búsquedas màs detalladas de posibles movimientos.
La diferencia con anteriores versiones es que, aunque planea con varias manos de antelación, no elabora una simulación hasta el fin de la partida, como puede ocurrir con el ajedrez o el Go, dado que en el póquer la cantidad de variables es inabarcable.
De hecho, los algoritmos de Pluribus han desarrollado algunos reflejos que sorprenden a sus creadores.
Sabe que para ganar en el póquer también se necesita ser impredecible.
Si un jugador apuesta únicamente cuando tiene la mejor mano posible, los oponentes rápidamente identifican la tendencia.
Así que la IA no solamente calcula las probabilidades de cada mano, sino que equilibra su comportamiento general para desestabilizar a los rivales, lo que le lleva a marcarse faroles, como cualquier otro jugador.
Noam Brown, estudiante de Doctorado de Carnegie Mellon, investigador de IA y coautor de este trabajo, cree que "algunas de las estrategias de juego de Pluribus podrían incluso cambiar la forma en que juegan los profesionales".
Un saludo.
Los sistemas de inteligencia atificial (IA) siguen refinando sus capacidades.
El programa Pluribus ha logrado por primera vez vencer a los humanos en partidas complejas de Texas Hold'em con 6 jugadores: aprende jugando repetidamente contra sí mismo.
Más de 20 años después de que Deep Blue batiese a Gary Kásparov, las máquinas han derrotado a los mejores jugadores del mundo en una amplia variedad de retos, pero el póquer era, hasta ahora, uno de los pocos que se les resistía.
Investigadores de la Universidad Carnegie Mellon de Pittsburgh han diseñado un programa de IA que ha sido capaz de dominar a los mejores profesionales en varias series de partidas de Texas Hold'em de 6 jugadores, la variedad más popular en todo el mundo, según detallan en la revista Science.
El póquer cuenta con una dificultad que otros juegos como el ajedrez no tienen.
Se trata de un escenario de "informaciòn asimétrica".
Dado que algunas de las cartas sobre la mesa permanecen cubiertas, el jugador sólo puede conocer una parte de lo que está sucediendo.
Así que, para ganar, necesita interpretar o intuir el comportamiento de los otros jugadores, lo que incluye identificar cuàndo un rival se está marcando un farol.
Y engañarle con faroles propios.
El Texas Hold'em en su versión multijugador es una variante especialmente compleja, ya que los participantes desarrollan estrategias de apuestas que siguen a lo largo de decenas de manos.
La combinación de sistemas de aprendizaje reforzado con nuevos algoritmos ha sido clave para que la máquina supere a los humanos.
Bautizado como Pluribus, el sistema descubre cómo ganar jugando una y otra vez contra sí mismo.
"Hasta ahora, los grandes logros de la IA en materia de razonamiento estratégico se habían limitado a competiciones de 2 jugadores", señala Thomas Sandholm, coautor del trabajo.
"Pero la capacidad de vencer a otros 5 jugadores en un juego tan complejo, abre nuevas oportunidades de utilizar IA para resolver una amplia variedad de problemas del mundo real".
Para la primera ronda de apuestas Pluribus esboza una estrategia en base a partidas simuladas que juega contra 6 copias de sì mismo. A partir de ese momento, realiza búsquedas màs detalladas de posibles movimientos.
La diferencia con anteriores versiones es que, aunque planea con varias manos de antelación, no elabora una simulación hasta el fin de la partida, como puede ocurrir con el ajedrez o el Go, dado que en el póquer la cantidad de variables es inabarcable.
De hecho, los algoritmos de Pluribus han desarrollado algunos reflejos que sorprenden a sus creadores.
Sabe que para ganar en el póquer también se necesita ser impredecible.
Si un jugador apuesta únicamente cuando tiene la mejor mano posible, los oponentes rápidamente identifican la tendencia.
Así que la IA no solamente calcula las probabilidades de cada mano, sino que equilibra su comportamiento general para desestabilizar a los rivales, lo que le lleva a marcarse faroles, como cualquier otro jugador.
Noam Brown, estudiante de Doctorado de Carnegie Mellon, investigador de IA y coautor de este trabajo, cree que "algunas de las estrategias de juego de Pluribus podrían incluso cambiar la forma en que juegan los profesionales".
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
Considerada la demencia más frecuente, la enfermedad de Alzhéimer afecta a 5,7 millones de personas solo en EE.UU. y las previsiones indican que en el año 2.050 se habrá duplicado esta cifra.
En España los afectados son unos 800.000 según la Sociedad Española de Neurologìa.
El diagnòstico precoz resulta esencial para que el enfermo se beneficie de los pocos tratamientos disponibles, pero ningún análisis ni estudio de neuroimagen ofrecen por sí solos un diagnóstico concluyente mientras se permanece con vida.
Los médicos deben llevar a cabo una batería de pruebas clínicas y neuropsicológicas.
Por ello, existe un gran interés en desarrollar la Inteligencia Artificial (IA) como instrumento de detección del Alzhéimer a partir de neuroimágenes.
Investigadores de la Universidad de California en San Francisco (UCSF) han logrado entrenar un algoritmo de IA para que reconozca uno de los primeros signos de la enfermedad, la disminuciòn del consumo de glucosa en el cerebro, en imágenes captadas mediante tomografía de emisión de positrones (TEP).
El algoritmo acertò el diagnóstico de Alzhéimer en casi todos los casos analizados, según el estudio.
En la TEP, se administra al paciente, por vía oral o venosa, una minúscula cantidad de una sustancia radioactiva que permite captar imágenes tridimensionales del metabolismo, la circulación y otras actividades celulares.
La TEP se presta bien como herramienta diagnóstica de IA porque el Alzhéimer provoca sutiles cambios en el metabolismo cerebral años antes de que el tejido nervioso comience a degenerar.
Esos cambios resultan "sumamente difíciles de percibir por los radiólogos", dice Jae Ho Sohn, radiólogo en la UCSF.
El algoritmo se entrenó y se sometió a prueba con 2.100 imágenes de TEP obtenidas de 1.000 personas mayores de 55 años, que procedían de un estudio de seguimiento de 12 años de personas a las que se les acabó diagnosticando esta demencia, así como a afectados por leves deterioros de la memoria y sujetos de control sanos.
El entrenamiento del algoritmo se llevó a cabo con el 90% de los datos y se puso a prueba con el 10% restante. A continuación, se volvió a probar con un segundo conjunto de datos independiente correspondiente a 40 pacientes sometidos a seguimiento durante una década.
El algoritmo demostró una elevada sensibilidad: acertó en el 81% de los pacientes del primer grupo problema, y el 100% del segundo, a quienes se les diagnosticaría la enfermedad 6 años después en promedio.
Los resultados se publicaron en la revista Radiology.
El algoritmo se basa en el aprendizaje profundo, una técnica de aprendizaje automàtico que se sirve de redes neuronales artificiales, que han sido programadas para aprender de ejemplos.
Un saludo.
Considerada la demencia más frecuente, la enfermedad de Alzhéimer afecta a 5,7 millones de personas solo en EE.UU. y las previsiones indican que en el año 2.050 se habrá duplicado esta cifra.
En España los afectados son unos 800.000 según la Sociedad Española de Neurologìa.
El diagnòstico precoz resulta esencial para que el enfermo se beneficie de los pocos tratamientos disponibles, pero ningún análisis ni estudio de neuroimagen ofrecen por sí solos un diagnóstico concluyente mientras se permanece con vida.
Los médicos deben llevar a cabo una batería de pruebas clínicas y neuropsicológicas.
Por ello, existe un gran interés en desarrollar la Inteligencia Artificial (IA) como instrumento de detección del Alzhéimer a partir de neuroimágenes.
Investigadores de la Universidad de California en San Francisco (UCSF) han logrado entrenar un algoritmo de IA para que reconozca uno de los primeros signos de la enfermedad, la disminuciòn del consumo de glucosa en el cerebro, en imágenes captadas mediante tomografía de emisión de positrones (TEP).
El algoritmo acertò el diagnóstico de Alzhéimer en casi todos los casos analizados, según el estudio.
En la TEP, se administra al paciente, por vía oral o venosa, una minúscula cantidad de una sustancia radioactiva que permite captar imágenes tridimensionales del metabolismo, la circulación y otras actividades celulares.
La TEP se presta bien como herramienta diagnóstica de IA porque el Alzhéimer provoca sutiles cambios en el metabolismo cerebral años antes de que el tejido nervioso comience a degenerar.
Esos cambios resultan "sumamente difíciles de percibir por los radiólogos", dice Jae Ho Sohn, radiólogo en la UCSF.
El algoritmo se entrenó y se sometió a prueba con 2.100 imágenes de TEP obtenidas de 1.000 personas mayores de 55 años, que procedían de un estudio de seguimiento de 12 años de personas a las que se les acabó diagnosticando esta demencia, así como a afectados por leves deterioros de la memoria y sujetos de control sanos.
El entrenamiento del algoritmo se llevó a cabo con el 90% de los datos y se puso a prueba con el 10% restante. A continuación, se volvió a probar con un segundo conjunto de datos independiente correspondiente a 40 pacientes sometidos a seguimiento durante una década.
El algoritmo demostró una elevada sensibilidad: acertó en el 81% de los pacientes del primer grupo problema, y el 100% del segundo, a quienes se les diagnosticaría la enfermedad 6 años después en promedio.
Los resultados se publicaron en la revista Radiology.
El algoritmo se basa en el aprendizaje profundo, una técnica de aprendizaje automàtico que se sirve de redes neuronales artificiales, que han sido programadas para aprender de ejemplos.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Re: Música e Inteligencia Artificial.
Todos estos avances a veces dan miedo, no tanto por las capacidades a las que puedan llegar y que en un momento dado consideren que somos imperfectos y nos eliminen, cosa de la que estamos muy lejos dado que mucha IA pero aún no son capaces de generar un numero realmente aleatorio, como por su capacidad de sustituir determinados trabajos que hasta ahora realizabamos los humanos, cajeros, taxistas, camioneros, soldadores etc. etc. Pero hay un segmento en el que realmente podrian ser muy beneficiosos, la medicina y mas particularmente los nanobots, creo sinceramente que ese será el final del cancer y de las enfermedades cardiovasculares provocadas por obstrucción arterial, unos nano robots a los que se les podria programar con la información de diferentes tipos de cancer y que una vez inyectados en el paciente atacaran las celulas malignas individualmente, con lo que no solo irian a por el tumor principal, si no por cualquier metastasis existente, pasado el tiempo indicado se desactivarian y serian eliminados por el cuerpo. ¿ ciencia ficción ? al tiempo, la lastima es que probablemente nosotros no lleguemos, pero quizá nuestros hijos o nietos ¿quien sabe?.
Esperanzados saludos.
Esperanzados saludos.
ducados123- Cantidad de envíos : 7319
Edad : 67
Localización : Alicante
Fecha de inscripción : 27/09/2016
Música e inteligencia artificial.
Hola.
Pasado mañana sàbado día 23 se presentará en la American Heart Association (Dallas), un impactante estudio dirigido por Brandon Fornwalt del Centro Médico Geisinger en Pennsylvania, en el que una Inteligencia Artificial (IA) acaba de demostrar que es perfectamente capaz, con extrema exactitud, de conocer las posibilidades de que una persona fallezca en el breve plazo de 1 año, basàndose únicamente en los resultados de sus pruebas cardíacas.
B. Fornwalt y su equipo alimentaron a la IA con datos históricos: 1,77 millones de resultados de electrocardiogramas realizados a 400.000 personas, y le pidieron a la IA que quiènes tenían más probabilidades de fallecer en el próximo año.
El equipo entrenó a 2 versiones de IA diferentes:
1 - Al algoritmo solo le dieron los datos en bruto de los electros.
2 - La IA fue alimentada con iguales datos, pero sumando la edad y sexo de todos los pacientes.
La capacidad de acierto de la IA se midió con una métrica llamada AUC que tiene en cuenta lo bien que la IA distingue entre 2 grupos de personas, en este caso, las que murieron y vivieron en el plazo de 1 año.
La IA obtuvo en todos los casos una puntuación de 0,85 sobre 1...que sería la puntuación perfecta: son unos resultados muy superiores a los que normalmente se obtienen con la métrica AUC...que oscilan entre 0,65 y 0,80.
La IA consiguió predecir el riesgo de muerte de personas cuyos electros habían sido considerado como normales por los médicos.
Nadie sabe cómo lo hace.
Ante este epatante resultado, el equipo solicitó a continuación a 3 cardiólogos que revisaran, por separado, todos esos electros normales...y ninguno de los 3 consiguiò descubrir el patrón de riesgo que encontró la IA.
Brandon Fornwalt explica: "Este hallazgo nos sugiere que la IA está viendo alguna cosa que nosotros los humanos no conseguimos visionar, o que simplemente ignoramos, porque pensamos que son normales. Potencialmente, la IA puede enseñarnos cosas que tal vez hayamos estado malinterpretando durante varias décadas. Por el momento, nadie ha sido capaz de averiguar cómo la IA ha conseguido tener una tasa tan elevada de aciertos. Los cardiólogos están asombrados y desconcertados".
Un saludo.
Pasado mañana sàbado día 23 se presentará en la American Heart Association (Dallas), un impactante estudio dirigido por Brandon Fornwalt del Centro Médico Geisinger en Pennsylvania, en el que una Inteligencia Artificial (IA) acaba de demostrar que es perfectamente capaz, con extrema exactitud, de conocer las posibilidades de que una persona fallezca en el breve plazo de 1 año, basàndose únicamente en los resultados de sus pruebas cardíacas.
B. Fornwalt y su equipo alimentaron a la IA con datos históricos: 1,77 millones de resultados de electrocardiogramas realizados a 400.000 personas, y le pidieron a la IA que quiènes tenían más probabilidades de fallecer en el próximo año.
El equipo entrenó a 2 versiones de IA diferentes:
1 - Al algoritmo solo le dieron los datos en bruto de los electros.
2 - La IA fue alimentada con iguales datos, pero sumando la edad y sexo de todos los pacientes.
La capacidad de acierto de la IA se midió con una métrica llamada AUC que tiene en cuenta lo bien que la IA distingue entre 2 grupos de personas, en este caso, las que murieron y vivieron en el plazo de 1 año.
La IA obtuvo en todos los casos una puntuación de 0,85 sobre 1...que sería la puntuación perfecta: son unos resultados muy superiores a los que normalmente se obtienen con la métrica AUC...que oscilan entre 0,65 y 0,80.
La IA consiguió predecir el riesgo de muerte de personas cuyos electros habían sido considerado como normales por los médicos.
Nadie sabe cómo lo hace.
Ante este epatante resultado, el equipo solicitó a continuación a 3 cardiólogos que revisaran, por separado, todos esos electros normales...y ninguno de los 3 consiguiò descubrir el patrón de riesgo que encontró la IA.
Brandon Fornwalt explica: "Este hallazgo nos sugiere que la IA está viendo alguna cosa que nosotros los humanos no conseguimos visionar, o que simplemente ignoramos, porque pensamos que son normales. Potencialmente, la IA puede enseñarnos cosas que tal vez hayamos estado malinterpretando durante varias décadas. Por el momento, nadie ha sido capaz de averiguar cómo la IA ha conseguido tener una tasa tan elevada de aciertos. Los cardiólogos están asombrados y desconcertados".
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e inteligencia artificial.
Hola.
El pasado lunes día 2 Amazon presentó en la Conference Invent 2.019 de Las Vegas un teclado musical impulsado por Inteligencia Artificial (IA).
Se llama AWS DeepComposer y está disponible tanto en forma física como en emulador para practicar el aprendizaje automático.
Lleva 32 teclas en 2 octavas y modelos de IA pre-entrenados en música Clásica, Jazz, Rock y Pop
Se puede usar una melodía pregrabada o grabar la nuestra, y despuès seleccionar los paràmetros que deseemos para que la máquina realice su trabajo. Una vez hecho, se generará una melodía basada en el género musical y paràmetros que hayamos indicado.
Usa un modelo generativo para llenar los vacíos a la hora de componer las canciones: no tiene acceso a ningún banco de datos, sino que utiliza datos aleatorios para crear modelos que se mandan al modelo discriminador.
Este modelo hace una clasificación binaria para identificar los datos autènticos de los falsos.
A medida que el entrenamiento avanza, tanto el generador como el discriminador se van actualizando y aprendiendo las distintas muestras para diferenciar las falsas de las verdaderas.
El objetivo de este teclado con IA no es solamente ver cómo compone música, sino que una vez ya estemos familiarizados con su uso, podremos entrenar a nuestro propio modelo y crear música propia.
Amazon usa Redes Adversarias Generativas (GAN) para "componer" música en los diferentes géneros y estilos. Su modelo discriminador sigue mejorando su composiciòn, hasta que el modelo discriminador piensa que estas composiciones son "genuinas".
El teclado todavía no está disponible en Amazon, pero se puede reservar, leer más datos y ver un video de 14' 08" de la presentación llevada a cabo por Matt Wood y una demostración hecha por èl mismo, donde al final aparece en la pantalla el precio de 99$, en:
https://aws.amazon.com/es/deepcomposer
Un saludo.
El pasado lunes día 2 Amazon presentó en la Conference Invent 2.019 de Las Vegas un teclado musical impulsado por Inteligencia Artificial (IA).
Se llama AWS DeepComposer y está disponible tanto en forma física como en emulador para practicar el aprendizaje automático.
Lleva 32 teclas en 2 octavas y modelos de IA pre-entrenados en música Clásica, Jazz, Rock y Pop
Se puede usar una melodía pregrabada o grabar la nuestra, y despuès seleccionar los paràmetros que deseemos para que la máquina realice su trabajo. Una vez hecho, se generará una melodía basada en el género musical y paràmetros que hayamos indicado.
Usa un modelo generativo para llenar los vacíos a la hora de componer las canciones: no tiene acceso a ningún banco de datos, sino que utiliza datos aleatorios para crear modelos que se mandan al modelo discriminador.
Este modelo hace una clasificación binaria para identificar los datos autènticos de los falsos.
A medida que el entrenamiento avanza, tanto el generador como el discriminador se van actualizando y aprendiendo las distintas muestras para diferenciar las falsas de las verdaderas.
El objetivo de este teclado con IA no es solamente ver cómo compone música, sino que una vez ya estemos familiarizados con su uso, podremos entrenar a nuestro propio modelo y crear música propia.
Amazon usa Redes Adversarias Generativas (GAN) para "componer" música en los diferentes géneros y estilos. Su modelo discriminador sigue mejorando su composiciòn, hasta que el modelo discriminador piensa que estas composiciones son "genuinas".
El teclado todavía no está disponible en Amazon, pero se puede reservar, leer más datos y ver un video de 14' 08" de la presentación llevada a cabo por Matt Wood y una demostración hecha por èl mismo, donde al final aparece en la pantalla el precio de 99$, en:
https://aws.amazon.com/es/deepcomposer
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Música e Inteligencia Artificial.
Hola.
Una Inteligencia Artificial (IA) desarrollada por la empresa DeepMind, una filial de Google, ha dado un paso de gigante en la resoluciòn de uno de los problemas fundamentales de la Biología: la predicción de proteínas, considerada como el segundo código secreto de la vida.
Para entender la hazaña, hay que explicar que el primer código de la vida es el genoma.
Es el manual de instrucciones para "fabricar" cualquier ser vivo.
El ADN de un ser humano està contenido en una secuencia de 3.000 millones de letras, un alfabeto químico compuesto por 4 sustancias: "A", "C", "T" y "G".
Son como los planos de un arquitecto, una proyecciòn en 2 dimensiones. Pero vivimos en un mundo tridimensional.
Y las proteínas "dibujadas" en los planos son los ladrillos con los que se construyen células y tejidos.
Solo que no se parecen a un ladrillo, pues en realidad son cadenas de aminoàcidos que se pliegan, alargan y retuercen formando vistosas esculturas y guirnaldas...
Aunque no hay nada caprichoso en su forma, porque la forma hace de función.
Así que màs bien son complicadas obras de ingeniería. Hay millones de proteínas, aunque solamente se han secuenciado unos cientos de miles.
Predecir cómo se plegarà cada cadena de aminoàcidos estampada en el ADN y cuàl serà su aspecto tridimensional es un hito científico. Y así lo ha reconocido la revista Nature, que se ha hecho eco del asombroso resultado alcanzado por DeepMind en CASP, una competición de predicciòn de estructuras proteicas, donde verdaderamente ha arrasado.
Baste decir que averiguar todas las configuraciones posibles de una proteína "normalita", compuesta por una ristra de 200 aminoàcidos, le llevaría a un superordenador la edad del Universo: 13.780 millones de años.
La IA de DeepMind, bautizada Alphafold, se basa en un algoritmo que aprende a detectar patrones escondidos en las gigantescas bases de proteínas que ya han sido secuenciadas.
Y està inspirada en una idea publicada en 1.994 por el investigador español Alfonso Valencia, cuando todavía no existía el aprendizaje automàtico. Este avance debería servir para acelerar y abaratar la elaboración de fàrmacos y vacunas, pues resuelve en días un problema que los métodos convencionales para diseñar proteínas, precisan años de trabajo y millones de euros.
Ademàs, muchas enfermedades se originan por proteínas deficientemente plegadas, como el pàrkinson y el alzhèimer, así que su investigación también se acelerarà.
Un saludo.
Una Inteligencia Artificial (IA) desarrollada por la empresa DeepMind, una filial de Google, ha dado un paso de gigante en la resoluciòn de uno de los problemas fundamentales de la Biología: la predicción de proteínas, considerada como el segundo código secreto de la vida.
Para entender la hazaña, hay que explicar que el primer código de la vida es el genoma.
Es el manual de instrucciones para "fabricar" cualquier ser vivo.
El ADN de un ser humano està contenido en una secuencia de 3.000 millones de letras, un alfabeto químico compuesto por 4 sustancias: "A", "C", "T" y "G".
Son como los planos de un arquitecto, una proyecciòn en 2 dimensiones. Pero vivimos en un mundo tridimensional.
Y las proteínas "dibujadas" en los planos son los ladrillos con los que se construyen células y tejidos.
Solo que no se parecen a un ladrillo, pues en realidad son cadenas de aminoàcidos que se pliegan, alargan y retuercen formando vistosas esculturas y guirnaldas...
Aunque no hay nada caprichoso en su forma, porque la forma hace de función.
Así que màs bien son complicadas obras de ingeniería. Hay millones de proteínas, aunque solamente se han secuenciado unos cientos de miles.
Predecir cómo se plegarà cada cadena de aminoàcidos estampada en el ADN y cuàl serà su aspecto tridimensional es un hito científico. Y así lo ha reconocido la revista Nature, que se ha hecho eco del asombroso resultado alcanzado por DeepMind en CASP, una competición de predicciòn de estructuras proteicas, donde verdaderamente ha arrasado.
Baste decir que averiguar todas las configuraciones posibles de una proteína "normalita", compuesta por una ristra de 200 aminoàcidos, le llevaría a un superordenador la edad del Universo: 13.780 millones de años.
La IA de DeepMind, bautizada Alphafold, se basa en un algoritmo que aprende a detectar patrones escondidos en las gigantescas bases de proteínas que ya han sido secuenciadas.
Y està inspirada en una idea publicada en 1.994 por el investigador español Alfonso Valencia, cuando todavía no existía el aprendizaje automàtico. Este avance debería servir para acelerar y abaratar la elaboración de fàrmacos y vacunas, pues resuelve en días un problema que los métodos convencionales para diseñar proteínas, precisan años de trabajo y millones de euros.
Ademàs, muchas enfermedades se originan por proteínas deficientemente plegadas, como el pàrkinson y el alzhèimer, así que su investigación también se acelerarà.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Página 5 de 6. • 1, 2, 3, 4, 5, 6
Temas similares
» Inteligencia Artificial aplicada a la música.
» Primeros auriculares diseñados y creado para musica heavy y demas musica dura.
» He abierto un canal en Youtube de música: la caja de música de gaby.
» Que necesito para escuchar musica desde mi P.C en mi equipo de Musica.
» MÁS DE 7.000 VINILOS DE MÚSICA CLÁSICA Y ÓPERA EN WERNER MUSICA
» Primeros auriculares diseñados y creado para musica heavy y demas musica dura.
» He abierto un canal en Youtube de música: la caja de música de gaby.
» Que necesito para escuchar musica desde mi P.C en mi equipo de Musica.
» MÁS DE 7.000 VINILOS DE MÚSICA CLÁSICA Y ÓPERA EN WERNER MUSICA
AUDIO PLANET :: OTROS :: Planeta Cultura
Página 5 de 6.
Permisos de este foro:
No puedes responder a temas en este foro.