Miguel L Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 Juanca, ya la inteligencia artificial (IA) nos supero, (maquinas ganan aun en el GO), en el juego de GO, se manejan algoritmos mucho mas complejos que en el juego de ajedrez, tal vez dentro de poco tengamos la noticia de que la IA resuelve teoremas avanzados o ecuaciones con operadores complejos (y normalizaciones incluidas) Etc. He aqui un avance... La fuerza bruta fue la clave de la victoria al ajedrez de Deep Blue (IBM) contra Gary Kasparov en 1997. La compresión del lenguaje natural fue la clave de la victoria de Watson (IBM) en el Jeopardy! en 2011. La clave de la victoria de AlphaGo (Google DeepMind) contra Lee Sedol en 2016 ha sido el aprendizaje con refuerzo no supervisado; AlphaGo ha sido capaz de predecir el 44% de los movimientos de Lee Sedol durante el torneo (hasta ahora había sido capaz de predecir hasta el 57% de los movimientos de los humanos). El progreso de la AI se dirige hacia la peor pesadilla de la ciencia ficción. Máquinas que aprenden solas interaccionando con otras máquinas, pero acaban comportándose como un humano que haya aprendido interaccionando con otros humanos. Para que una máquina sea más humana no es necesario que aprenda de los humanos. El articulo completo en : http://francis.naukas.com/2016/03/15/la ... Francis%29 Saludos y animo...
jwackito Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 No tengo idea que quiere decir el chabon que escribió el artículo con "El progreso de la AI se dirige hacia la peor pesadilla de la ciencia ficción. Máquinas que aprenden solas interaccionando con otras máquinas, pero acaban comportándose como un humano que haya aprendido interaccionando con otros humanos. Para que una máquina sea más humana no es necesario que aprenda de los humanos." pero cualquiera que lo piense dos segundos descubre enseguida que no tiene el mínimo sentido. Es fácil (y peligroso, para el razonamiento) atribuirle a una máquina capacidades que son inherentemente humanas.Tan fácil es hacerlo que incluso en los comentarios pasa una o dos veces. La definición de intuición por ejemplo, dice: 1. f. Facultad de comprender las cosas instantáneamente, sin necesidad de razonamiento. Todos sabemos que las máquinas ni razonan ni comprenden (si no están de acuerdo, discutimos otro ratito). Lo que podemos decir acerca de las máquinas (con cierto cuidado) es que eligen. Eligen llegado un punto en la ejecución de su programa, que camino seguir ante una bifurcación, dependiendo del valor de una condición. Siempre se llega al punto en el que Si (condición verdadera): Hago lo que tengo que hacer si la condición se cumple si no: Hago lo que tengo que hacer si la condición NO se cumple. A esto se reducen todos los algoritmos por más complejos que sean, pero esta esencia queda disuelta en una complejidad muy difícil de comprender e imaginar. De lo que si podemos hablar cuando hablamos de máquinas es de eficiencia. Viajamos en auto por que es más rápido y "eficiente" (entre comillas, por que desde el punto de vista del consumo energético, es más eficiente pero más lento caminar). En este sentido, lo que ha hecho google sin ánimo de menospreciar el gran trabajo de la gente de DeepMind, es una máquina muy eficiente para jugar al Go, que puede "aprender" en la acepción "3. tr. Fijar algo en la memoria." como jugar al Go gracias a su programación. De ahí a decir que una máquina puede aprender a comportarse como un humano, (ni hablemos de comportarse como un humano mirando como se comportan otras máquinas y he aquí el sin sentido) hay mucha pero muuucha distancia. Si todavía no están convencidos de esa distancia, pueden ir a preguntarle a AlphaGo, que sintió al haber ganado el último partido. Saludos
fsr Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 Hace un tiempo habían hecho una simulación completa del cerebro de un gusano, pero es un organismo muy simple con pocas neuronas. El gusano virtual se comportaba como uno real, sin embargo. Lejos estamos de simular un cerebro humano. Yo no le prestaría mucha atención a sitios que predicen escenarios apocalípticos sin análisis muy profundos de cómo funcionan los algoritmos, y que pueden hacer realmente los equipos. Fernando
Hal9000 Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 Mientras siempre podamos desenchufarlas ............
Miguel L Publicado 17 de Marzo del 2016 Autor Publicado 17 de Marzo del 2016 Tratando de seguir el hilo y desde el punto de vista de jwackito y teniendo en cuenta que el cerebro humano es “una maquina biológica”, (con mucho tiempo de evolución, lo que les permitió desarrollar conciencia, sentimientos, Etc., que en última instancia pueden considerarse “algoritmos complejos”), lo expresado se transforma en un enfrentamiento entre maquinas, y allí entramos en un problema de “desarrollo” verdaderamente incierto… Tan incierto como el comportamiento “humano”… (De grandes causas y tremendos horrores), con procesos “intermedios” e inestables, siempre asociados a “un futuro”. Respecto al concepto de Diego, “desenchufarlas” significa simplemente “ganar el juego”, con o sin “sentimiento”, eso ya entra en el campo de la “complejidad del algoritmo”. Saludos.
jwackito Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 Jejeje... Okay, discutamos otro ratito y les aviso que vamos a meternos en un tema espinoso en cuanto a su profundidad teórica. Trataré de exponer los conceptos de la forma más clara posible, pero si algo no queda del todo claro, avisen... La diferencia de complejidad entre “una maquina biológica” y los “algoritmos complejos” pertenece a dos ordenes completamente diferentes de complejidad. Tal es así que la complejidad de la "máquina biológica" gana por, literalmente, infinitos ordenes de magnitud. Queda esto explícito si pensamos por ejemplo (por poner un ejemplo cualquiera) en el libre albedrío como una función: f(entero, entero) --> entero es decir una función que recibe dos números enteros y devuelve un entero cualquiera. A una persona se le puede pedir que dados dos números, elija otro número, el que la persona quiera. Es obvio que la cantidad de estas funciones es infinito, pero para los que no, si quisiéramos "programar" el libre albedrío, bien podríamos decir que la función f es igual a random(), donde la función random devuelve un número cualquiera (para los interesados, si buscan un poco en la internet, notarán enseguida que los número generados por computadora son pseudoaleatorios, la función que devuelve números completamente aleatorios es imposible de programar en una computadora). Pero esto no sería más que una representación pobrísima del libre albedrío, ya que una persona bien podría elegir siempre el mismo número, no importa cuales dos números le digan primero. Eso es una función distinta, f(x,y) = 1 por ejemplo, donde no importa que numeros x o y digamos, la persona siempre va a elegir el 1 como respuesta. Así también existe la función f(x,y)=2, f(x,y)=3,... y así siguiendo, por lo que hay infinitas f. Pero esto no acaba aquí. Hay por lo menos dos funciones que no están entre esas que nombramos y son f(x,y)= x y f(x,y)=y, y tambien f(x,y)=2*x y f(x,y)=2*y y así, infinitas funciones, cada una de las cuales podría ser una representación igual de válida para la "programación" del libre albedrío que f(x,y)=random(). Los que estudiaron la demostración de que hay infinitos más densos que otros, ya habrán notado por donde viene la mano. Paso a demostrar entonces (en el sentido de demostración formal) los límites de la complejidad de los algoritmos implementados en una computadora moderna, o lo que es lo mismo, que hay funciones que no se pueden programar. 1) Un programa de computadora tiene una representación binaria única. Así, el programa 1, es diferente del 10, del 11, del 100, del 101 y así siguiendo. Si dos programas comparten la misma representación binaria, son el mismo programa, no son programas diferentes. 2) Cada representación de un número binario que se corresponde con un único número natural en base diez, 1=1, 10=2, 11=3, 100=4, 101=5 y así siguiendo. Hay infinitos números binarios, y a cada uno le corresponde un único número natural. Se dice que el conjunto de los infinitos números binarios es ordenable, ya que se los puede emparejar de a uno con los números naturales. 3) De 1) y 2) se tiene que hay infinitos programas de computadora y que se los puede ordenar en orden canónico, es decir, se los puede emparejar uno a uno con los números naturales. 4) Existen infinitas funciones que van de enteros en enteros en enteros (la proposición formal para decir que hay infinitas f(x,y)=z con x,y,z números enteros) pero el orden de infinitud de estas es mayor que el orden de infinitud de los números naturales. Esto se demuestra formalmente utilizando por ejemplo la técnica de diagonalización de Cantor, pero equivale a decir que no es posible emparejar de uno a uno las funciones f(x,y)=z con los números naturales. 5) De 3) y 4) se tiene que hay funciones de enteros en enteros en enteros que no se pueden representar como programas, es decir, que no pueden programarse. En la demostración solo hablamos de funciones de 2 argumentos, ni siquiera contamos las funciones con 3, 4, 5, infinitos? argumentos, que son otras tantas. Así de cortos se quedan los programas a la hora de emular comportamientos humanos. Aceptar esta demostración, para mi, una de las más maravillosas demostraciones de las ciencias de la computación, donde se ponen de manifiesto nada más ni nada menos que los límites de lo que podemos programar, es estar de acuerdo en que los límites de complejidad que puede alcanzar un algoritmo cualquiera están muy pero muy por debajo de la complejidad de una "máquina biológica".
Frink Publicado 17 de Marzo del 2016 Publicado 17 de Marzo del 2016 Creo que la manera de crear una "conciencia artificial" va por el lado de simular un cerebro, no de programar un "algoritmo de conciencia". Siendo el cerebro humano una "maquina biologica" bastaría con modelizar todas las interacciones de los elementos que lo componen ,interacciones que en gran medida desconocemos y que de conocerlas igual creo que hoy carecemos del poder de computo para levar adelante tal emprendimiento... y luego de eso, fenómenos tales como la conciencia serian propiedades emergentes de ese sistema simulado.
Miguel L Publicado 18 de Marzo del 2016 Autor Publicado 18 de Marzo del 2016 Estimado jwackito, no es mi intensión discutir, simplemente compartir conceptos y/o puntos de vista, aprecio y valoro todo lo expuesto, lo leí con profundo agrado, e incluso reconozco que: “Así de cortos se quedan los programas a la hora de emular comportamientos humanos. Aceptar esta demostración, para mi, una de las más maravillosas demostraciones de las ciencias de la computación, donde se ponen de manifiesto nada más ni nada menos que los límites de lo que podemos programar, es estar de acuerdo en que los límites de complejidad que puede alcanzar un algoritmo cualquiera están muy pero muy por debajo de la complejidad de una "máquina biológica".” Esta perfectamente demostrado por los teoremas de incompletud de Gode. (En particular por el 2°). Y que la “densidad” del “conjunto mente humana” es (hoy) varios órdenes superior al “conjunto programable informático”. Solo que debemos tener en cuenta también que: 1) No solo existen funciones (hoy no programables), más aun, con seguridad, existen funciones (hoy) no imaginadas aun. 2) El espacio-tiempo que habitamos, no tenemos la seguridad (o la demostración) de corresponderse con un “espacio de Hilbert” que nos garantizaría la “lógica matemática”. 3) Debemos evitar las “paradojas de Zenón de Elea”, (en particular la de Aquiles y la tortuga) respecto a la evolución de la programación versus evolución biológica. (pudiendo identifica indistintamente a cualquiera de ellas con Aquiles). 4) Cuando me refreí a “algoritmos complejos”, lo hice pensando en “otras estructuras programables”, e incluso “autosustentables”, que hoy no tienen nombre todavía. En fin, con seguridad existirán muchas mas a tener en cuenta. Coincido en todo con lo expresado por (mi tocayo Miguel) Frink. Mi actitud, es estar siempre dispuesto a escuchar y aprender. Cordiales saludos.
jwackito Publicado 18 de Marzo del 2016 Publicado 18 de Marzo del 2016 Jejeje... Migue, mi intensión si era discutir, en el sentido de contraponer ideas siempre y cuando los argumentos sean interesantes y las discusiones se lleven a cabo en buenos términos. He dejado escapar algunas cosas en mi argumento que esperaba que aquellos que lo habían seguido, sacaran a la luz. Frink va por buen camino. "Siendo el cerebro humano una "maquina biologica" bastaría con modelizar todas las interacciones de los elementos que lo componen" Bastaría entonces con calcular cuantas son todas estas interacciones para darse una como de complicado puede llegar a ser modelizarlo. Alguno se anima a arriesgar un número? Y las interacciones necesarias para jugar al Go como un maestro? Saludos cordiales!
Miguel L Publicado 20 de Marzo del 2016 Autor Publicado 20 de Marzo del 2016 JeJeJe… en: por jwackito » Vie Mar 18, 2016 8:27 amJejeje... Migue, mi intensión si era discutir, en el sentido de contraponer ideas siempre y cuando los argumentos sean interesantes y las discusiones se lleven a cabo en buenos términos ¿Al final moderador o atizador?, me recuerda a aquella desgraciada frase de Costa Méndez, “El mediador nos mando un ultimátum”. Pero no hay problema, el “intercambio de conceptos” respecto al conocimiento, es de “mayor orden social” que la “discusión”. En la discusión, está implícito el concepto de “ganar a cualquier costo”, aun a costa de la “verdad”, lo que seguramente perjudica el conocimiento. En el “intercambio de Conceptos”, ambos, comparten conceptos, aprobando lo mas conveniente respecto a la “verdad”. (Es lo acostumbrado en el desarrollo de la ciencia), aunque en algunos casos también hay discusiones… Pero como la intención de este post era levantarle el animo a Juanca respecto a los 51 mensajes leidos, está todo bien. P/D. Se edito el parrafo completo para evitar "ser sacado de contexto". Disculpas. Cordiales saludos.
Cisco Publicado 21 de Marzo del 2016 Publicado 21 de Marzo del 2016 Joaquin, considero que hoy poy hoy es imposible simular un cerebro biologico. Arranquemos con que en la computacion actual los valores acumulados son binarios (ceros y unos), mientras que una neurona es analogica y almacena "valores" en graduaciones (infinitas graduaciones quizas?). Por lo tanto no creo que sea posible ni siquiera, a nivel imaginativo, modelizar todas las interacciones posibles de un sistema analogico.
Plutom Publicado 25 de Marzo del 2016 Publicado 25 de Marzo del 2016 Muy interesante la verdad toda la discusión, o intercambio de ideas, como quieran llamarlo Y al respecto hay algunas cosas, que medio de puntilloso no me quedan del todo esclarecidas: Lo que podemos decir acerca de las máquinas (con cierto cuidado) es que eligen. Eligen llegado un punto en la ejecución de su programa, que camino seguir ante una bifurcación, dependiendo del valor de una condición. La pregunta que me surge inmediatamente después de leer este concepto es: Y en los humanos... ¿no nos pasa exactamente lo mismo? Quiero decir, del mismo modo que AlphaGo tiene cierta complejidad en sus algoritmos pero que al fin y al cabo se reduce a input-decisión a tomar de AlphaGo-output (les pido encarecidamente que me corrijan que de informática no tengo ni un mínimo del lenguaje adecuado), ¿no funciona en nosotros un mecanismo similar, del tipo input-decisión del humano-output? Desde ese lado al menos, no veo la diferencia entre una máquina y un humano en su funcionamiento, pero me parece interesantísimo el tema. De ahí a decir que una máquina puede aprender a comportarse como un humano, (ni hablemos de comportarse como un humano mirando como se comportan otras máquinas y he aquí el sin sentido) hay mucha pero muuucha distancia. Ese fue un error de grueso de quien escribió la nota. En realidad, por lo que leí al respecto de AlphaGo, funciona (con mi lenguaje mediocre en informática) medianamente así: Como en el Go las posibilidades de respuesta del adversario por movimiento son muchísimo más altas que en muchos otros juegos de mesa (como el ajedrez), crear un algoritmo que por fuerza bruta calcule buenas 'respuestas' un par de movimientos adelante no sirve, porque las posibilidades escalan rámidamente unos cuantos ceros, y se hace imposible de computar. Por ende, ingeniosamente los de Google crearon un 'mecanismo' que 'ayuda' a AlphaGo a 'diferenciar' entre buenos y malos movimientos (tantas comillas porque no sé los terminos correctos que deben usarse en informática, y para que el pobre jwacko no ande sacando definiciones del diccionario todo el día mejor lo pongo en comillas ). Ahora bien, ¿cómo? primero, le 'dan' para que 'vea' una base de datos de la cual hay unos cuantos millones de combinaciones de movimientos que supongo son útiles o poderosos en el ámbito del Go profesional. A continuación, para mejorar se pone a prueba a AlphaGo consigo misma, a jugar una tanda de unas cientas de miles de partidas, así pone en prueba al algoritmo de fuerza bruta+la base de datos de buenos movimientos, para aprender nuevas estrategias e incorporarlas. Como una especie de 'memorización' cuando se comete un error, tiene una especie de 'mecanismo' en su programación que lo que hace es ya dejar por sentado, en base a una partida ya jugada, qué cagadas conviene evitar hacer. Osea, hasta ahí es una combinación de algoritmo de fuerza bruta+base de datos de buenos movimientos hechos por expertos+base de datos de cagadas que hizo con anterioridad el sistema (osea, lista de cosas que NO debe repetir en futuros juegos). Tomando todo eso de referencia, decide tras explorar sus bases de datos y calcular un poco (sumado a un poquitín de MUCHA ingeniería informática de avanzada de por medio), cual es el mejor movimiento en una determinada posición (en la que curiosamente se encuentra jugando). Por eso es que la explicación del escritor del artículo es errada, porque de tanto ahorrar escribir queda muy vaga la definición de lo que es capaz AlphaGo. Y en cierto modo no termina siendo del todo errado lo que dice quien estuvo a cargo de tipear esas palabras, porque al fin y al cabo, un humano que juega al Go puede calcular algunos movimientos adelante qué le conviene jugar (como hace AlphaGo), puede acordarse de buenos movimientos que vio hacer de parte de un profesional (como hace AlphaGo) y puede también acordarse cuándo metió la pata, para no volverlo a hacer (como AlphaGo). Osea que muy distantemente hablando, el accionar de este software se asimila al de un jugador humano de Go... Tratando de seguir el hilo y desde el punto de vista de jwackito y teniendo en cuenta que el cerebro humano es “una maquina biológica”, (con mucho tiempo de evolución, lo que les permitió desarrollar conciencia, sentimientos, Etc., que en última instancia pueden considerarse “algoritmos complejos”) Adhiero totalmente a la postura tuya Migue, en el mejor de los casos, evolutivamente hablando, los primeros organismos con sistema nervioso central se asimilaban bastante en nivel de cómputo al de algún software primitivo, donde no había muchas más funciones que las de 'comer' 'excretar' 'respirar' 'huir de estímulos dolorosos' 'reproducirse', y alguna que otra que se me escapa seguramente. Y del mismo modo que nuestras computadoras con componentes metálicos evolucionan en eficiencia, rapidez, capacidad, etc en el tiempo; las especies por el mismo principio, y dejándoles una ventaja de millones de años de desarrollo, pueden pasar de tener una habilidad de cálculo de una pequeña calculadora, a una máquina como la que es nuestro cerebro. Y eso no hace al cerebro menos 'maquinario', por el contrario, le da una complejidad increíble, pero que puede reducirse, al menos a mi parecer, al funcionamiento de una máquina como ninguna de tan compleja que es. y les aviso que vamos a meternos en un tema espinoso en cuanto a su profundidad teórica Metele nomás!! Queda esto explícito si pensamos por ejemplo (por poner un ejemplo cualquiera) en el libre albedrío como una función: El problema de justamente, elegir una fulción partiendo del libre albedrío ya puede entrar en conflicto, pero más que por el problema en sí que debatimos, pasa por algo más filosófico, y queda en decidir si existe o no el libre albedrío. Parece a priori que la respuesta es más que segura de que "sí", pero justamente soy de los que disiento al respecto. Y no es por meter el argumento evolutivo en todas partes, pero sigue siendo válido preguntarse: si tenemos libre albedrío, ¿en qué parte del proceso evolutivo del homínido lo 'obtuvimos'? ¿O acaso desde el proceso evolutivo de los mamíferos existía? ¿O de los vertebrados en general? ¿O de la vida en general? Del mismo modo, hago este planteo: si viene alguien que consideramos humano y nos dice que es consciente, no se contradice, y a cada cosa que le pidamos que elija, pareciera escojer libremente; ni dudaríamos de que está apelando a su libre albedrío. ¡Pero por supuesto que lo tiene!. Ahora, si luego de eso, el sujeto comienza a cortarse con un cuchillo, hasta mostrarnos que por dentro no tiene músculos y huesos, sino cables y acero, y nos dice que en realidad es un robot, entonces... ¿no posee libre albedrío? A eso me refiero con que es complicado dar justo la nota con el ejemplo del libre albedrío, porque depende de cada persona, puede existir o no el libre albedrío, y eso ya va mas por un lado filosófico, y no quiero entremezclar el hilo este que es muy interesante. Sólo que quería dar el comentario Bastaría entonces con calcular cuantas son todas estas interacciones para darse una como de complicado puede llegar a ser modelizarlo. Alguno se anima a arriesgar un número?Y las interacciones necesarias para jugar al Go como un maestro? Vale decir que son muchas? La cantidad de partidas posibles de Go, estoy seguro, es mayor a la cantidad de átomos en el universo observable. Y eso se puede inferir sin saber ese número. Sólo hay que saber el número estimado de átomos en el universo observable (10^80), la cantidad estimada de partidas posibles de ajedrez (10^120), y que la cantidad de partidas posibles de Go es muchísimo mayor a la cantidad de partidas posibles de ajedrez [Partidas(Go)>(10^120)]. Fácilmente se obtiene, dado que 10^80 < 10^120 y que 10^120 < Partidas(Go), que entonces: 10^80 < Partidas(Go). Y sí, lo anterior fue una obviedad que quise poner en términos rebuscados Y pare cerrar, compañero Cisco, cientos de veces se subestimó el poder de la informática, fallando una tras otra vez en sus predicciones de la insuperabilidad de la mente humana. Yo no quiero apostar a que tu predicción va a fallar, pero mi plata la apuesto en la informática Saludos!
Miguel L Publicado 29 de Marzo del 2016 Autor Publicado 29 de Marzo del 2016 Jwackito, DISCULPAS, por esto: por Miguel L » Dom Mar 20, 2016 8:54 pm JeJeJe… en: por jwackito » Vie Mar 18, 2016 8:27 am Jejeje... Migue, mi intensión si era discutir, en el sentido de contraponer ideas siempre y cuando los argumentos sean interesantes y las discusiones se lleven a cabo en buenos términos ¿Al final moderador o atizador?, me recuerda a aquella desgraciada frase de Costa Méndez, “El mediador nos mando un ultimátum”. Que aunque parezca “un golpe bajo”, solo se trataba de ejemplificar un recurso valido en una discusión, (con solo cambiar el "peso" o "valor" de la palabra "discucion"); pero se transformaría en algo “desubicado” o “sin sentido” en un “intercambio de conceptos”, por no seguir el hilo del asunto tratado. Espero aceptes las disculpas al caso por no haberlo explicitado en su momento, el error se produce por tratar de expresar los conceptos de la manera mas sucinta. Volviendo al hilo, Godel, demostró con sus teoremas que los algoritmos, tal como los conocemos hoy, no alcanzan. Pero (reitero), la existencia del cerebro humano, (como maquina biológica), implica la existencia de “algoritmos complejos”, o “estructuras programables”, aun no desarrolladas, (aunque modelizar un cerebro es todavía imposible); pero su sola existencia (la del cerebro), demuestra que existen, si les damos tiempo, Aquiles alcanza a la tortuga. Respecto a: por Cisco » Lun Mar 21, 2016 7:14 pm Joaquin, considero que hoy poy hoy es imposible simular un cerebro biologico. Arranquemos con que en la computacion actual los valores acumulados son binarios (ceros y unos), mientras que una neurona es analogica y almacena "valores" en graduaciones (infinitas graduaciones quizas?). Por lo tanto no creo que sea posible ni siquiera, a nivel imaginativo, modelizar todas las interacciones posibles de un sistema analogico. Toda función es susceptible de representar o modelizar independientemente de la base numérica que se elija, (sea2, 10, 16, 32, Etc.), puede ser mas o menos complejo pero no imposible, por lo tanto es subsanable. Respecto a Plutom, que laburo te tomaste, excelente…Tomas. Cordiales saludos.
jwackito Publicado 30 de Marzo del 2016 Publicado 30 de Marzo del 2016 Hola Miguel. No son necesarias las disculpas. Yo también fui con los tapones de punta. Si volvemos al hilo, yo diría que podríamos explorar las clases de problemas computables y no computables. Hay problemas que sencillamente no pueden resolverse utilizando una computadora. Uno de esos problemas (solo uno, de una familia de problemas no computables), que se estudia en cursos como teoría de la computación o computabilidad y complejidad, es el famoso Halting Problem o problema de la parada. El enunciado de este problema sostiene que es imposible que un programa A analice el código fuente de otro programa B y determine si el programa B se detiene o no a partir de una entrada cualquiera. Puesto en términos de funciones, esto quiere decir que no puede programarse una función F(G(w)) -> (si, no), es decir una función F que reciba como entrada una función G que representa un programa de computadora que recibe como entrada a w (no importa la entrada) y que F tenga como salida si, si G se detiene a partir de w o no si G no se detiene a partir de w. Esto contradice directamente la afirmación que sostiene que todas las funciones son programables (o lo que es lo mismo, representables como un número en una base cualquiera). Esto es verdad para cualquier programa escrito en una computadora por más moderna que sea. Si en algún momento Aquiles alcanza a la tortuga, no va a ser una computadora quien la alcance, será algo literalmente infinitamente más complejo. La pregunta que me surge inmediatamente después de leer este concepto es: Y en los humanos... ¿no nos pasa exactamente lo mismo? Quiero decir, del mismo modo que AlphaGo tiene cierta complejidad en sus algoritmos pero que al fin y al cabo se reduce a input-decisión a tomar de AlphaGo-output (les pido encarecidamente que me corrijan que de informática no tengo ni un mínimo del lenguaje adecuado), ¿no funciona en nosotros un mecanismo similar, del tipo input-decisión del humano-output? Eeeeh... no. En el caso de una persona, el mecanismo input-decisión del humano-output no funciona. Primero, las entradas para una persona no están siempre completamente definidas y segundo, parte de la historia previa de la persona (la experiencia) influye directamente en el output. Imáginate esta conversación Tomas: Hola Joaquin. Podes jurarme que si te pido un número entre 0 y 10 me vas a decir un número entre 0 y 10? Joaquin: Si, te juro por la vida de mi gato que si me pedís un número entre 0 y 10, te voy a decir un número entre 0 y 10. Tomás: podés decirme un número entre 0 y 10? Joaquín: 11. Probablemente si volvés a repetir el experimento, dependiendo de cuan idiota sea el que contesta, vas a obtener números entre 0 y 10 o entre -inf y +inf, o puede que la respuesta sea "casa", es decir, ni siquiera un número. Pero hay algo que las computadoras tampoco pueden manejar y es la ambigüedad del lenguaje hablado. Imaginate este otro diálogo. Joaquin: Hola Tomás. Podes jurarme que si te pido un número entre 0 y 10 me vas a decir un número entre 0 y 10? Tomás: Si, te juro por la vida de mi gato que si me pedís un número entre 0 y 10, te voy a decir un número entre 0 y 10. Joaquin: podés decirme un número entre 0 y 10? Tomás: 3. Joaquin: Pero 3 no está entre 0 y 10 Que paso, Tomás interpretó que Joaquin quería un número entre 0 y 10 mientras que Joaquín estaba pensando en binario, es decir esperaba un número entre 0 y 2. La cantidad de partidas posibles de Go La cantidad de partidas posibles legales en el Go en un tablero de 19x19 es de 2.08168199382×10^170, que si bien es grande, no es taaaaan grande. Arranquemos con que en la computacion actual los valores acumulados son binarios (ceros y unos) Fran. Una función puede almacenar valores no binarios. Es lo que pasa con las redes neuronales, donde la función de estímulo puede ser una función continua. El tema es que esto tampoco alcaza para modelar un cerebro humano en un programa de computadora. Gracias a todos por las respuestas, sin duda un tema super interesante. PS: soy moderador en el foro de planetaria, lunar y solar, en cualquier otro lado, soy solo uno más. Abrazo
Plutom Publicado 2 de Abril del 2016 Publicado 2 de Abril del 2016 Respecto a Plutom, que laburo te tomaste, excelente…Tomas. Gracias jajaja, el tema me interesa bastante Hay problemas que sencillamente no pueden resolverse utilizando una computadora. Del mismo modo, uno puede suponer (y con cierta lógica) que hay problemas que sencillamente no pueden resolverse utilizando un cerebro. ¿La demostración? Bueno, puede ser un tanto complicado de visualizar, pero la mente humana, a cierto punto, tiene sus debidas limitaciones (puesto que el cerebro contiene seguramente una cantidad finita de "procesos" que puede realizar). Quizás determinar en qué punto esté el límite sea mucho, muchísimo más dificultoso -y casi imposible-. Pero al menos una rama de los "procesos" que realiza el cerebro sí se sabe con exactitud dónde tiene su límite, al día de hoy al menos. Y me refiero a la rama de las "capacidades matemáticas" de los humanos en general, cuya complejidad se ve limitada por problemas que no puede resolver, ejemplo, la famosa Hipótesis Riemann (si están interesados me adentro en el tema). Osea, la capacidad de resolución de ejercicios matemáticos de la mente humana, al menos por ahora, tiene un límite superior de "Hipótesis de Riemann". O puesto en otras palabras, llamemos C(h) a la complejidad resolutiva humana en general para problemas matemáticos (o "capacidad intelectual matemática" de un ser humano cualquiera) . Entonces se sabe que "x+2=4" < C(h) < "Hipótesis Riemann" , o lo mismo, que cualquier persona sabe la solución a x+2=4, pero (al 01/04/2016) nadie sabe la respuesta a la Hipótesis Riemann. Para problemas de física o astronomía se aplica lo mismo. Ahora, para otros "axiomas" o serie de procesos de la mente humana, como lo concerniente al lenguaje por ejemplo, no hay algo tan fácilmente visible de dónde tenemos los límites de "procesamiento", pero seguramente los haya (aunque desconozca como aproximar tal límite ) Si el punto entonces era decir que no todas las funciones son programables, entonces está perfecto, y bastante bien probado por sr. jwackito . Ahora, tanto un cerebro como una máquina siguen obedeciendo lo mismo: tanto para unos como para otros hay problemas irresolubles dadas su programación respectiva. y segundo, parte de la historia previa de la persona (la experiencia) influye directamente en el output. Aclaración importante. Eso no separa tampoco a los humanos de las computadoras, pues las computadoras también pueden aprender por la experiencia, con algún algoritmo ingenioso (el ejemplo que justamente estamos analizando es el de AlphaGo, que parte de su programación hace que juegue consigo misma para aprender de sus errores y grabarlos en una base de datos, por un proceso que no se detallar por que no sé mucho de informática). Imáginate esta conversación Aclaración importante 2. Simplemente no aplica, a mi entender. Los axiomas del lenguaje, como dije más arriba, simplemente se rigen por reglas que son más complejas de detallar y que desconozco realmente. Y justamente en una conversación, por más matemática que fuere, indefectiblemente involucra algún "algoritmo cerebral/biológico" del lenguaje. Ahora, en los papeles, y seriamente, una persona en general sí sabe escoger un número entre el uno y el 10, si se le pide tal tarea. Osea, un humano en general interpreta correctamente lo que se le pide. De ahí a que diga lo que le pidieron que interprete involucra, reitero, a una parte de programación de índole matemática, y a otra lingüística, por ende, al fin y al cabo la respuesta depende de si el algoritmo lingüístico que interviene decide responder lo mismo que el algoritmo matemático procesó, ó si se quiere hacer el gracioso y decir 11, sea por el motivo que fuere. Y adelantándome a una posible respuesta, no vale tampoco decir que, dado que puede que la persona no haya entendido el problema fuera el motivo de la respuesta "11". Y simplemente porque entonces, se corresponde con una "programación" defectuosa -suena horrible dicho de ese modo, pero no encuentro una palabra más elegante-, o bien por un bug/glitch o error del programa, que tengo entendido que también le puede pasar a un programa, en este caso del humano en cuestión. ----------------------------------------------------------------------------------------- Y finalmente, adhiero a la interpretación (nuevamente) de Migue, es fácilmente demostrable, por el otro lado, que el cerebro, aunque prácticamente casi imposible de hacer, es modelable a modo de un sistema "informático" (entre comillas porque obviamente, supone algo de mucha mayor complejidad, claro está). Para la demostración, hay que hacer la siguiente suposición, media lela (no sé como expresarlo técnicamente, así que le prueba contiene mucho palabrerío): Supongamos que un cerebro no es modelable o programable. Esto quiere decir que no hay manera de disponer elementos físicos, reales, de manera tal que compongan una 'máquina' que procese con la complejidad del cerebro. Luego, si no existe al menos una disposición posible de tales elementos, eso implica o significa que no existen los cerebros. Por ahora no sabemos si esa proposición es verdadera o falsa. ¿Cómo lo comprobamos? Bueno, en la próxima star party, le doy el permitido a jwacko de abrirme a palazos la cabeza, a ver si encuentra una disposición tal de partículas y energía que se asemejen a un cerebro, osea, que contradiga lo que acabo de enunciar. Y por favor que de ahí me lleve a la morgue Saludos!
fsr Publicado 2 de Abril del 2016 Publicado 2 de Abril del 2016 je! creo que pocas cosas demuestran de manera tan clara que el cerebro humano tiene limitaciones como este video. Tienen que contar cuantos pases hace el equipo blanco: Fernando
Frink Publicado 3 de Abril del 2016 Publicado 3 de Abril del 2016 je! creo que pocas cosas demuestran de manera tan clara que el cerebro humano tiene limitaciones como este video. Tienen que contar cuantos pases hace el equipo blanco: esas serian las limitaciones de un cerebro humano standard, Tambien hay ejemplos extraordinarios que llevan el limite a valores insospechados, como este tipo: Creo que podria ser capaz de dibujar todos los fotogramas del video.
Miguel L Publicado 4 de Abril del 2016 Autor Publicado 4 de Abril del 2016 Para ejemplificar “un programa que aprende”, (un rudimento de IA). Hace más de 30 años, en épocas del D.O.S. y el BASIC. Desarrolle un programa para encontrar números primos, pero cada número primo que encontraba, (lo registraba en data1), debía posteriormente revisar los múltiplos del nuevo número primo, y escribir las líneas necesarias (en data 2). Data2 era el programa que se estaba ejecutando pero como todavía no tenia las últimas líneas, borraba el programa original, (data2), y reescribía los nuevos data1 y data2. Data2 arrancaba automáticamente y de esa manera se seguían acumulando números primos en Data1. Aunque no se crea, funcionaba, pero el primer problema apareció cuando se alcanzo el límite de BASIC, 32K (no admitía mas de 32K registros), esto se pudo subsanar parcialmente porque los limites de BASC abarcaban desde -32K a +32K (se agrego líneas para cuando el N° de registros fuera mayor a 32K le restara 64K, de esa forma se llegaba a 64K registros). Luego lo intente en Cobol, Pascal, fortran pero siempre encontraba algún tipo de limite. Lo cual me llevo a “comprender” el fracaso del desarrollo en conjuntos infinitos (y de infinitos de diferente “densidad”). Esto viene a caso porque hoy este tipo de problemas fue superado, pero aunque se “corran”, los límites existen. Saludos.
Miguel L Publicado 8 de Abril del 2016 Autor Publicado 8 de Abril del 2016 He aqui una opinion "autorizada": El teórico de la inteligencia artificial Eliezer Yudkowsky asegura que: "La AI ni nos ama ni nos odia, pero podría encontrar razones por las que creyera que los humanos somos un obstáculo para que se desempeñe la tarea para la que fue creada. En ese caso, ¿qué le impediría elminarnos?". El original aca: http://www.quo.es/ciencia/peligros-de-l ... artificial Saludos.
Miguel L Publicado 8 de Abril del 2016 Autor Publicado 8 de Abril del 2016 Tambien algo sobre los N° primos. Los mas grandes... En : http://www.quo.es/ciencia/descubren-que ... o-se-creia Tambien en: http://www.abc.es/ciencia/abci-extrano- ... ticia.html Saludos.
fsr Publicado 13 de Abril del 2016 Publicado 13 de Abril del 2016 je! creo que pocas cosas demuestran de manera tan clara que el cerebro humano tiene limitaciones como este video. Tienen que contar cuantos pases hace el equipo blanco: esas serian las limitaciones de un cerebro humano standard, Tambien hay ejemplos extraordinarios que llevan el limite a valores insospechados, como este tipo: Creo que podria ser capaz de dibujar todos los fotogramas del video. Impresionante lo que puede hacer un cerebro que está especializado de forma "no-convencional", no? Fernando
Frink Publicado 13 de Abril del 2016 Publicado 13 de Abril del 2016 je! creo que pocas cosas demuestran de manera tan clara que el cerebro humano tiene limitaciones como este video. Tienen que contar cuantos pases hace el equipo blanco: esas serian las limitaciones de un cerebro humano standard, Tambien hay ejemplos extraordinarios que llevan el limite a valores insospechados, como este tipo: Creo que podria ser capaz de dibujar todos los fotogramas del video. Impresionante lo que puede hacer un cerebro que está especializado de forma "no-convencional", no? Esos ejemplos me hacen pensar que si bien el conocimiento del cerebro nos puede dar pistas para llegar a crear una "conciencia artificial" modelizar todas sus interacciones como mencione antes no seria el camino mas eficiente, si bien su existencia es lo que demuestra que tal cosa es posible. Porque a fin de cuentas la evolución no hace al cerebro mas inteligente, sino que hace que termine siendo la herramienta de supervivencia mas efectiva, y los casos no convencionales demuestran que tiene un potencial mayor que eso. Se podría hacer un paralelismo con la aviación, la existencia de aves ,insectos y murciélagos era una clara evidencia de que podía existir un artefacto mecánico mas pesado que el aire capaz de volar. Así y todo nunca llegamos a tener los materiales suficientemente ligeros y resistentes para crear una maquina voladora de alas batientes ,como tienen esos animales, que pueda llevar a un ser humano (si existen pequeños ornitopteros). Sin embargo el estudio del planeo de las aves ademas del desarrollo teórico de la física de fluidos nos acerco a la solución, que no era la misma a la que llego la naturaleza, pero si estaba nuestro alcance. Hoy no tenemos la capacidad de computo para emular un cerebro, asi como no poseiamos esos materiales, pero posiblemente no haga falta...
fsr Publicado 14 de Abril del 2016 Publicado 14 de Abril del 2016 En cuanto a memoria visual es sorprendente, pero como otras habilidades se vieron disminuidas, no es una comparación fácil. Tal vez le dedicó mas "potencia" a una habilidad en particular, y menos a otras. Yo creo que en lineas generales, la evolución del hombre lo fué llevando a tener una mayor inteligencia, por necesidad. En la medida en que la inteligencia es una ventaja importante en cuanto a la supervivencia y la cantidad de hijos que tiene y llegan a adultos, va a tender a elevarse constantemente. Hoy en día la gente en promedio, tiene que saber mucho mas que hace 200 años para desempeñarse en la vida laboral. Aunque claro, tampoco es que la evolución sea un mecanismo que se aplique al hombre en todo su rigor, porque en definitiva la muerte es el factor que determina si un individuo fue exitoso o no, y nosotros no estamos dispuestos a dejar que la gente muera así como así, sin una ayuda mínima del estado, al menos. El organismo exitoso es el que sobrevive. Si vos vas y matás a todos los elefantes que tienen colmillos largos, efectivamente hiciste una selección forzada, y la próxima generación sólo va a tener elefantes con colmillos cortos (o mayoritariamente, la genética es un quilombo). Probablemente por esto es que tampoco hay seres vivos "inmortales", sería imposible que evolucionen (y la superpoblación, claro ) En cuanto a las aves y los aviones. La naturaleza al parecer tiene cierta tendencia a encontrar soluciones increíblemente complejas Diseñar un avión de alas móviles como un pájaro sería una pesadilla de la ingeniería. Imposible que fabriquemos eso, y menos aún a un costo razonable. Pero, como se entendió cual era el mecanismo básico que permitía que volaran, se logró hacer una maquina infinitamente menos eficiente, pero que también puede volar . Creo que si algo destaca en la evolución de las especies es la eficiencia. Por ejemplo: sabías que convirtiendo las unidades de las calorías de la dieta recomendada de un ser humano, se puede calcular que funciona con la misma energía que una lamparita de aprox 100 watts en funcionamiento contínuo? Increíble, no? 20% de esa energía la gasta el cerebro. Como sea, si alguna vez logramos entender como es que el cerebro piensa, tal vez podamos hacer una maquina increíblemente ineficiente que haga algo similar, sin necesidad de que sea 100% igual Ahora, podrá un cerebro usarse para determinar como piensa un cerebro? Será una buena idea fabricar algo como eso? Fernando
Frink Publicado 14 de Abril del 2016 Publicado 14 de Abril del 2016 Desde el punto de vista de la evolución el éxito esta determinado por la reproducción, si tu ADN perduro a futuro en un vástago tuyo ganaste. Obviamente que la primera condición para poder reproducirte es estar vivo y después estar sano (de ahi la importancia de la supervivencia). Lo que quería decir es que la evolución solo va a llevar al cerebro y a la capacidad intelectual hasta ese punto, a partir de ahí si un individuo muy inteligente es igual de exitoso que otro moderadamente inteligente en la próxima generación las proporciones van a ser iguales. Por otro lado mas que inteligencia a mi me intriga mas el concepto de conciencia, la inteligencia es imitable, la conciencia la veo en otro nivel y no se si requiera todo el potencial del cerebro para funcionar.
fsr Publicado 14 de Abril del 2016 Publicado 14 de Abril del 2016 Es verdad, la reproducción implica más selección y es en definitiva lo que determina el éxito. La muerte es como una papelera de reciclaje. Si bien los más sanos y longevos tienen ventaja a la larga, de nada sirve si no se reproducen para perpetuarse en el tiempo. De qué definición de conciencia estas hablando, exactamente? Eso sería una cuestión de aprendizaje, me parece. Viste Ex-Machina? Fernando
Publicaciones recomendadas
Crear una cuenta o conéctate para comentar
Tienes que ser miembro para dejar un comentario
Crear una cuenta
Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!
Registrar una nueva cuentaConectar
¿Ya tienes una cuenta? Conéctate aquí.
Conectar ahora