El self driving de Tesla NO es un sistema experto. Deja muy, MUY atras a los sistemas expertos.
Lo se,
son sistemas expertos en cadena y arbol. Pero el camino de los "arrejuntamientos" de sistemas expertos para "emanar" una IA "verdadera" de ahi es algo que se descarto hace ya un par de decadas. Afinas mas en los resultados pero sigues teniendo los mismos problemas que antes. De hecho, la falla en una de los sistemas expertos es suceptible de causar un fallo en cadena del resto. Por poner un ejemplo inexacto, la contradiccion entre dos señales de trafico por falla humana en su situacion puede provocar un fallo en cascada de todo lo demas. Desde el control de crucero hasta la conciencia situacional del vehiculo. ¿Por que crees que no esta homologado para conduccion total autonoma y que se sigue requiriendo de "supervision"? Y ya se que funciona de fabula... hasta que deja de funcionar. Esos casos en los que un Tesla se ha estampado en la trasera de un camion no han pasado por "malfuncionamiento" de un rele o asi. Han pasado por jugar con los limites de la IA. Tal como esta planteada la cosa, las IA
fallaran forzosamente siempre. Sencillamente tienen limites.
Con la dronica pasa exactamente lo mismo porque estan bebiendo de la misma fuente... Posiblemente porque no hay otra al dia de hoy. ¿Que hay algo supersecreto que no nos cuentan porque ¡skynet! ? Pues eso ya no lo se.
Aqui lo importante es
comprender los limites. En el actual estado de cosas no es como si tuvieramos un pintor que esta empezando y aprendiendo a pintar. Lo tenemos que supervisar al principio pero ya aprendera... No. Asi no funcionan las cosas en IA. Si tuvieras que usar ese ejemplo dirias que tienes un pintor cuya naturaleza le obliga a pegar un brochazo al azar de cada cien o doscientos. Actualmente las IA trabajan con una version resumida de la realidad. No porque no puedan trabajar con el total, sino porque
las matematicas imponen que trabajar con el total de la informacion es inasumible desde el punto de vista del tiempo. O sea, el sistema cambia mas rapido de lo que cualquier sistema tarda en analizarlo
si hace un analisis total. Asi que para lograr un analisis
usable necesitas, forzosamente, escoger la informacion, extraer la pertinente del total. Cuanto mas rapido quieres actuar, mas potente debe ser ese proceso. Y hasta ahi,
lo facil. Lo complicado viene entonces porque para efectuar una accion, la IA tiene que empezar a "reconstruir" el todo a partir de ese resumen. Una vez mas son la matematicas las que nos imponen los limites: en cualquier reconstruccion a partir de un "resumen
real" se pierde informacion. Ojo al concepto "resumen real", no confundir con lenguaje. "Car" no es un resumen de la palabra "automovil". Por seguir con ese ejemplo, el resumen de la palabra inglesa "CAR" puede ser perfectamente "CR". Pera eso implica que "CR" puede significar tanto "car" como "cristiano ronaldo". Es el contexto el que te va a dictar el significado real
(por ejemplo, muchos no se habran dado cuenta de que la frase de antes empezaba con "pera" y no con "pero"). Mas el "contexto" en si mismo tambien es un resumen de situacion que no puede ser completo... La pescadilla que se muerde la cola, la teoria de la informacion y los limites matematicos que todavia no sabemos como podemos obviar.
La cuestion es que las IA actuales tienen, y van a seguir teniendo, un indice de fallos que no pueden ser evitados. Que, de hecho, se hacen mas notorios cuanto mas "voluminoso" se vuelve la exigencia. Por simplificar otra vez, tenderia a cero cuanto mas pequeño es el campo de accion y tenderia a infinito cuanto mas grande se hace. ¿Separar una señal con informacion del ruido dentro de una banda estrecha de radiofrecuencia? Ahi son muuuuuyy buenas y los errores son asumibles. ¿Enfrentarse a tres objetivos aereos evolucionantes relacionados entre si y contigo? Digamos que si ni siquiera somos capaces de resolver el problema de los tres cuerpos, esto se queda mucho mas alla. Y ya se que son cosas diferentes, la cuestion es que con las IA tienes una parte de alucinaciones, de "fallos"
que no son evitables porque estan en la naturaleza misma del asunto. Y cuanto mas complejo es el problema, mas alto el indice de fallos. Y no nos equivoquemos, este es uno de esos campos en los que "afinar" tiene sus limites. Vamos, que no vas a poder hacer "evolucionar" la cosa hasta lograr un indice de fallos asumible, cosa que hacemos en lo tecnico ya que sabemos que los aviones se averian y se estrellan. No. El indice donde los fallos se estabilizan esta muy por debajo de lo asumible. Vamos, nivel "ruleta rusa". Lo cual es un ejemplo muy bueno para explicar porque no te puede fiar todavia d eestas cosas. Y hasta ahi los problemas teoricos que se resumen en uno: las matematicas son asi, no de otra manera. Si se quieren otros resultados, inventense otras matematicas. Y la ultima frase no es broma.
Los problemas practicos. Para "entrenar" una IA necesitas "alimentarla" con situaciones para extraer las que te interesen. Ahi, o metes mil millones de casos
reales que te hayan ido sucediendo o te limitas a "simular". En lo militar, por razones obvias, solo puedes simular. Asi que la IA que salga de ahi, sale viciada ab initio
con los limites de la simulacion. Volviendo a poner ejemplos simples, si no se te ha ocurrido simular algo, la IA se lo va a tener que inventar. Y eso es justo lo que llamamos "alucinacion" en IA.
Resumen final. Cuidado.
Esto tiene limites. Y
a eso solo me refiero, a que hay limites. Vamos a ver IA hasta en la sopa. El problema es que nos la pretendan colar como la panacea y que empiecen a vendernos motos equipadas con IA de esas que no se sabe cuando se desarrollaran. Llegamos hasta donde llegamos, que no es precisamente poco. Pero cuidado con comprar motos mas alla. Y ya nos las estan vendiendo, que es a donde voy...
Todo lo anterior no es mio, me lo ha dictado un amigo mio que se llama R. Daneel Olivaw.