“Maquinaria computacional e Inteligencia” (A. M. Turing, 1950) En: Haugeland, J. (ed.) (1997). Mind Design II. Cambridge, MA: MIT Press. (Traductor: Cristóbal Fuentes Barassi, 2010, Universidad de Chile)
1 El juego de la imitación.
Propongo considerar la siguiente pregunta: “¿Pueden pensar las máquinas?”. Se debiera comenzar definiendo el significado de los térm términ inos os ‘máq ‘máqui uina na’’ y ‘pen ‘pensa sar’ r’.. Esta Estass defi defini nicio cione ness debe deberí rían an se serr elaboradas de manera tal de reflejar lo mejor posible el uso normal de estas palabras, palabras, pero una actitud así es peligrosa. peligrosa. Si el significad significado o de las palabras ‘máquina’ y ‘pensar’ proviene del escrutinio de cómo son usadas comúnmente, se hace difícil escapar de la conclusión de que el sign signif ific icad ado o y resp respue uest sta a a la preg pregun unta ta “¿pu “¿pued eden en las las má máqu quin inas as pensar?” debiera ser buscado en una encuesta estadística, tal como la encuesta Gallup (N. del T.: la encuesta Gallup es una división en una organ organiza izació ción n lla llamad mada a Gallup Gallup,, cuya cuya princi principal pal caract caracterí erísti stica ca es prestar servicios de asesoría gerencial a diversas empresas, y que realiza regularmente encuestas de opinión publica en más de 140 países). Pero eso es absurdo. En vez de intentar una definición así, propondré reemplazar esa pregunta por otra, la cual se encuentra estrec estrecham hament ente e rel relaci aciona onada da y que se puede puede expres expresar ar en palabr palabras as relativamente poco ambiguas. La nueva forma del problema puede ser descrita como si ésta fuera un juego, el cual llamaremos “el juego de la imitación”. Se juega con 3 personas, un hombre (A), una mujer (B), y un interrogador (C) de cual cualqu quie ierr se sexo xo.. El inte interr rrog ogad ador or se encu encuen entr tra a en una una habi habita taci ción ón distinta distinta a la de los otros dos participantes participantes.. El objetivo objetivo del juego para el interrogador es determinar cuál de los participantes es el hombre y cuál es la mujer. Él los identifica con las etiquetas X e Y, y al final del juego él dice si “X es A e Y es B”, o “X es B e Y es A”. Al interrogador se le permite hacer preguntas tanto a A como B del tipo: C: X, ¿sería tan amable de decirme el largo del cabello de la otra persona? Ahora, suponga que X es de hecho A, por lo que A debe responder. El objetivo de A en el juego es tratar de que C haga una identificación falsa. Por lo que su respuesta podría ser:
A: Mi pelo está cortado al rape, y los mechones más largos tienen 23 centímetros (9 pulgadas). Para que los tonos de voz no ayuden al interrogador, las respuestas deben ser escritas, o mejor aún, tipiadas. Las condiciones ideales deberían incluir un teletipo que comunique ambas habitaciones. De manera opcional, las respuestas y preguntas podrían ser repetidas por por un inte interm rmed edia iari rio. o. El obje objeti tivo vo de B en el jueg juego o es ayud ayudar ar al interrogador. Probablemente, la mejor estrategia para ella sea dar respue res puesta stass fidedi fidedigna gnas. s. Ella Ella puede puede inclui incluirr en sus res respue puesta stass cos cosas as tales como “Yo soy la mujer, ¡no lo escuches!”, pero aquello no garantizaría nada ya que el hombre podría decir cosas similares. Ahora hacemos la pregunta: “¿qué pasaría si una máquina asume el rol de A en es estte jueg juego o?” ¿Dis ¿Discr crim imin inar aría ía equ equivo ivoca cada dame men nte el interrogador con la misma frecuencia con la que lo hace cuando el juego se juega con un hombre y una mujer? Estas preguntas reemplazan la pregunta original “¿pueden las máquinas pensar?”. 2 Crítica del nuevo problema.
Así como es posible preguntar “¿cuál es la respuesta para esta nueva pregunta?”, uno podría preguntar “¿vale la pena investigar esta es ta nuev nueva a preg pregun unta ta?” ?”.. Esta Esta últi última ma la inve invest stig igam amos os sin sin má máss preámbulos, para así evitar regresiones infinitas. El nuevo problema posee la ventaja de trazar una línea muy clara entre las capacidades físicas y las intelectuales del hombre. Ningún ingeniero o químico afirma ser capaz de producir un material que sea indistinguible de la piel humana. Es posible que en algún momento aquello si se podrá hacer, pero aún suponiendo la disponibilidad de esta invención deberíamos sentir que no tiene mucho sentido en tratar tratar de hacer más humana a una “máquina “máquina pensante” pensante” a través través del revestimiento de piel artificial. La manera en la cual el problema ha sido sido plant lantea ead do refle efleja ja es estta co con ndici dició ón, la que impi impid de que que el interrogador pueda ver o tocar a los otros competidores, o escuchar sus voces. Algunas otras ventajas del criterio que se ha propuesto pueden ser ejemplificadas con muestras de preguntas y respuestas: Q: Por favor escribe un soneto sobre el sujeto en el Cuarto Puente. A: No cuentes conmigo para eso. Nunca pude escribir poesía. Q: Suma 34957 y 70764. A: (Pausa de 30 segundos y luego da la respuesta) 10562. Q: ¿Juegas ajedrez? A: Si.
Q: Tengo K en mi K1, y ninguna otra pieza. Tú solo tienes K en K6, y R en R1. Es tu turno. ¿Qué jugada harías? A: (Pausa de 15 segundos) R-R8 mate. El método de la pregunta y respuesta pareciera ser adecuado para intro introduc ducir ir cas casii cualqu cualquier iera a de los campos campos de estudi estudio o humano humano que quis quisié iéra ramo moss incl inclui uir. r. No quer querem emos os sa sanc ncio iona narr a la má máqu quin ina a por por su incapacidad de brillar en concursos de belleza, ni tampoco castigar a un homb hombre re por per erde derr una una ca carrrer era a co con ntra tra un ae aerroplan plano o. La Lass condiciones de nuestro juego hacen que estas incapacidades sean irre irrele leva vant ntes es.. Lo Loss ‘tes ‘testi tigo gos’ s’ pued pueden en pres presum umir ir,, si lo co cons nsid ider eran an aconsejable, todo lo que quieran acerca de sus encantos, fuerza o hero heroís ísmo mo,, pero pero el inte interr rrog ogad ador or no pued puede e pedi pedirr demo demost stra raci cion ones es prácticas. El juego podría quizás ser criticado en base al hecho de que las prob probab abili ilida dade dess es está tán n dema demasi siad ado o en co cont ntra ra de la má máqu quin ina. a. Si el hombre intentase pretender ser una máquina, éste haría claramente una muy mala demostración. Lo delataría rápidamente su lentitud e inexactitud en aritmética. ¿Podría ser que las máquinas realizaran algo el cual debiera ser descrito como pensar, pero que es muy distinto de lo que un hombre hace? Esta objeción es muy sólida, pero al menos se puede decir que, a pesar de todo, una máquina puede ser construida para jugar satisfactoriamente el juego de la imitación, así que no necesitamos aproblemarnos con esta objeción. Es posible sugerir que cuando se juegue el juego de la imitación, la mejor mejor estrat estrategi egia a para para la máquin máquina a sea proba probable blemen mente te hacer hacer algo algo distinto que imitar la conducta de un hombre. Podría ser, pero creo que es poco probable que se produjera un efecto tal como ese. En cualquier caso, no hay ninguna intención de investigar la teoría del juego, y se da por asumido que la mejor estrategia es tratar de dar respuestas que un hombre daría de manera natural.
3 Las máquinas involucradas en el juego.
La pregunta realizada en la sección 1 no será lo suficientemente específica hasta que delimitemos qué queremos decir con la palabra ‘máqui ‘máquina’ na’.. Es natura naturall que queram queramos os permit permitir ir el uso de cualqu cualquier ier técnic técnica a de ingeni ingenierí ería a en nuestr nuestras as máquin máquinas. as. Tambié También n queram queramos os admitir la posibilidad que un ingeniero o un grupo de ingenieros pued pueda a co cons nstr trui uirr una una má máqu quin ina a que que func funcio ione ne,, pero pero cuya cuya form forma a de operar no puede ser descrita satisfactoriamente satisfactoriamente por sus constructores debido a que ellos usan un método que fuera experimental en gran medida. Finalmente, queremos excluir de las máquinas a los hombres nacido nacidoss de manera manera norma normal. l. Es difíci difícill ela elabor borar ar las defini definicio ciones nes de manera tal que estas tres condiciones sean cumplidas. Por ejemplo,
uno podría insistir que el equipo de ingenieros deba ser de un sexo únicamente, pero esto no sería realmente satisfactorio, ya que es posible crear a un individuo completo a partir de una sola célula de la piel (por ejemplo) de un hombre. Hacer aquello sería una hazaña para la técnica biológica, que además merecería grandes alabanzas, pero no nos nos incl inclin inar aría ía a pens pensar ar que que se sea a un ca caso so en el cual cual se es está tá “con “c onst stru ruye yend ndo o una una má máqu quin ina a pens pensan ante te”. ”. Lo ante anteri rior or nos nos llev lleva a a aban abando dona narr el requ requer erim imie ient nto o de que que cual cualqu quie ierr técn técnic ica a deba deba se serr permitida. Estamos más que dispuestos para hacerlo considerando el hecho de que el interés actual en las “máquinas pensantes” ha sido despertado por un tipo particular de máquina, usualmente llamada “compu “computad tador or ele electr ctróni ónico” co” o “compu “computad tador or digita digital”. l”. Siguie Siguiendo ndo esta esta sugerencia, sólo permitimos que los computadores digitales tomen parte del nuestro juego. A primera vista, esta restricción se ve muy drástica. Trataré de demostrar que no lo es en la realidad. Hacer esto necesita una expl explic icac ació ión n brev breve e de la natu natura rale leza za y las las prop propie ieda dade dess de es esto toss computadores. También podría decirse que la identificación de las máquinas con los computadores digitales, tal como nuestro criterio de “pensar”, sólo será insatisfactorio si (contrario a lo que yo creo) los comput computado adores res digita digitales les en defini definitiv tiva a son incapa incapaces ces de hacer hacer una una buena demostración en el juego. Ya hay hay un gran gran núme número ro de co comp mput utad ador ores es digi digita tale less que que se encuentran funcionando, y se podría preguntar “¿por qué no tratar de experimentar inmediatamente? Sería fácil satisfacer las condiciones el juego. Se podría usar un número de interrogadores, y se podrían compilar estadísticas para demostrar con qué frecuencia se hicieron las identificaciones correctas”. La respuesta breve es que no estamos preguntando si todos los computadores digitales lo harían bien en el juego, ni tampoco si los computadores disponibles en la actualidad lo harían bien, sino que hay computadores imaginables que lo harían bien. Pero ésta es sólo una respuesta breve. Nos aproximaremos a esta pregunta desde otro ángulo después.
4 Computadores digitales.
La idea detrás de los computadores digitales podría ser explicada dici dicien endo do que que es esta tass má máqu quin inas as pued pueden en llev llevar ar a ca cabo bo cual cualqu quie ierr operación que pudiera ser realizada por un computador humano. El computador humano debiera seguir reglas fijas; él no tiene ninguna autoridad para desviarse en nada de ellas. Debemos suponer que estas reglas se encuentran en un libro, el cual es alterado cada vez que que al human umano o se le da un nuevo uevo trabaj abajo o. Tam amb bién ién pose see e un
suministro ilimitado de papel sobre el cual realiza sus cálculos. De igual manera, él podría realizar sus multiplicaciones y sumas en una “máquina escritorio”, pero eso no es importante. Si usam usamos os las las expl explic icac acio ione ness reci recién én me menc ncio iona nada dass co como mo una una definición, estaríamos en peligro de exhibir circularidad argumentativa. Lo podemos evitar si se entrega un resumen de los medi me dios os por por los los cual cuales es se logr logra a el efec efecto to alca alcanz nzad ado. o. Se pued puede e considerar que un computador digital consiste en tres partes: 1 2
(i) Almacenaje. (ii) Un Unidad ejecutiva. (iii) Control.
El almacenaje es almacenaje de información, y corresponde al papel que utiliza el computador humano, y corresponde tanto el papel para para hace hacerr los los cá cálc lcul ulos os co como mo al libr libro o en el cual cual se encu encuen entr tran an impresas las reglas. En la medida en que el computador humano hace los cálculos en su cabeza, una parte del almacenaje corresponderá a esta memoria. La unidad ejecutiva es la parte en la cual se llevan a cabo las diversas operaciones individuales involucradas en un cálculo. Qué es lo que son estas operaciones individuales variará de una máquina a otra otra.. Usu Usualme alment nte, e, oper operac acio ione ness rela relati tiva vame ment nte e larg largas as tal co como mo “multipliqu “multiplique e 3540675445 3540675445 por 7076345687 7076345687”” pueden pueden ser realizada realizadas, s, pero pero en alguna algunass maquin maquinas, as, sól sólo o las operac operacion iones es simple simpless del tipo tipo “escriba 0” son posibles. Hemos mencionado que “el libro de reglas” que se le proporcionó al comp co mput utad ador or es reem reempl plaz azad ado o por por una una part parte e del del alma almace cena naje je en la máquina. Es entonces cuando se le denomina “tabla de inst instru rucc ccio ione nes” s”.. Es el debe deberr del del Co Cont ntro roll de proc procur urar ar que que es esta tass inst instru rucc ccio ione ness se sean an obed obedec ecid idas as adec adecua uada dame ment nte e y en el orde orden n correcto. El Control está construido de tal manera, que permite que lo anterior ocurra necesariamente. La info inform rmac ació ión n en el alma almace cena naje je es usua usualm lmen ente te divi dividi dida da en paquetes de tamaño moderadamente pequeño. En una máquina, por ejemplo, un paquete podría consistir en 10 dígitos decimales. Los números son asignados a las partes del almacenaje en la cual los vari varios os paqu paquet etes es de info inform rmac ació ión n so son n alma almace cena nado dos, s, de ma mane nera ra sistemática. Una instrucción típica podría ser: Sume el número almacenado en la posición 6809 con el que está en 4302
y ubique el resultado de vuelta en la última posición de almacenaje.
No hay necesidad de decir que esto no ocurriría con expresiones en ing inglés lés. Ser Sería probab obable leme men nte co codi difi fica cad do co con n una una for forma tipo tipo 680943 680943021 0217. 7. Aquí, Aquí, 17 signif significa ica cuál cuál de las variad variadas as operac operacion iones es posibles se realizará en los dos números – en este caso la operación que se describió recién, es decir “sume el número…”. Es posible notar que la instrucción requiere 10 dígitos, y así se forma un paquete de info inforrma maci ció ón de maner anera a muy muy co conv nven enie ient nte. e. El co cont ntrrol re reccibir ibirá á normalmente instrucciones para ser obedecidas en el orden de las posici posicione oness en la cual cual son almace almacenad nadas, as, pero pero ocasio ocasional nalmen mente te una instrucción tal como Ahora obedezca la instrucción almacenada en la posición 5606, y continúe desde ahí.
podría ocurrir, o nuevamente si la posi posici ción ón 4505 4505 cont contie iene ne 0 obed obedez ezca ca a cont contin inua uaci ción ón la instrucción almacenada en 6707, en caso contrario, continúe desde ahí.
Las instrucciones de este tipo son muy importantes porque hacen posible que una secuencia de operaciones sea repetida una y otra vez hasta que una condición se cumpla, pero mientras la obedece, no hay instrucciones nuevas en cada repetición, sino las mismas una y otra vez. Para considerar una analogía doméstica, suponga que Madre quiere que Tommy llame al zapatero todas las mañanas mientras vaya saliendo al colegio para saber si ya le repararon sus zapatos. Ella le puede puede preguntar preguntar nuevamente nuevamente todas las mañanas. mañanas. O bien, ella puede poner un aviso de una vez por todas en la entrada, la cual él verá cuando se vaya al colegio y que dice que llame preguntando por los zapatos, y también destruir el aviso cuando vuelva si ya los tiene. El lector debe aceptar como un hecho que los computadores digitales pueden ser construidos, y de hecho han sido construidos, de acuerdo a los principios que hemos descrito, y que de hecho pueden imitar las acciones de un computador humano con bastante similitud. El libro de reglas que hemos descrito y que es usado por nuestro computador humano es una ficción conveniente, por supuesto. Los computadores humanos reales realmente recuerdan lo que deben hacer. Si uno quiere hacer que una máquina imite el comportamiento de un computador humano en alguna tarea compleja, se le debe preguntar cómo lo hace, y luego traducir la respuesta a una tabla de
inst instru rucc ccio ione nes. s. Co Cons nstr trui uirr tabl tablas as de inst instru rucc ccio ione ness es usua usualm lmen ente te conocido como “programación”. “Programar una máquina para que lleve a cabo la operación A” significa poner la tabla de instrucciones apropiada en la máquina de manera tal que la realice. Una variante interesante sobre la idea de un computador digital es un computador digital con algún elemento aleatorio. Éstos poseen inst instru rucc ccio ione ness co con n resp respec ecto to al lanz lanzam amie ient nto o de un dado dado o algú algún n proceso electrónico equivalente; una instrucción de este tipo podría ser: 1000.
Lance el dado y anote el resultado en el lugar de almacenaje
Algunas veces, una máquina como ésta es descrita como si tuviera libre albedrío (aunque yo no ocuparía esta frase). Normalmente, no es posible determinar a través de la observación de una maquina si posee un elemento aleatorio, dado que un efecto similar se puede producir por un dispositivo que haga elecciones dependiendo de los decimales de π. La mayoría de los computadores digitales en la actualidad sólo tienen un almacenaje limitado. No hay ningún problema teórico con la idea idea de que que un co comp mput utad ador or teng tenga a un alma almace cena naje je ilim ilimit itad ado. o. Po Porr supuesto, sólo una parte limitada puede ser usada en un tiempo dado. De manera similar, sólo una cantidad limitada puede haber sido construida, pero podemos imaginar que se agreguen y más y más en la medida en que sea requerido. Tales computadores tienen intereses teóric teóricos os especi especiale aless y ser serán án lla llamad mados os comput computado adores res de capaci capacidad dad infinita. La idea de un computador digital es muy antigua. Charles Babbage, profes profesor or Lucasi Lucasiano ano de matemá matemátic ticas as en Cambri Cambridge dge desde desde 1828 1828 a 1839, planeó una máquina así, la que llamó “Motor Analítico”, pero que nunca pudo terminar. Aunque Babbage poseía todas las ideas esenciales, su máquina nunca fue un prospecto muy atractivo para su época. La velocidad con la cual habría funcionado habría sido mucho más rápida que un computador humano, pero 100 veces más lenta que que la má máqu quin ina a de Manc Manche hest ster er.. El alma almace cena naje je era era pura purame ment nte e mecánico, y utilizaba tarjetas y rodamientos. El hecho de que el motor analítico de Babbage fuera comp co mple leta tame ment nte e me mecá cáni nico co nos nos ayud ayudar ará á a desh deshac acer erno noss de una una superstición. Se le otorga importancia al hecho de que los comput computado adores res digita digitales les son elé eléctr ctrico icos, s, y que el sis sistem tema a nervio nervioso so tamb tambié ién n es eléc eléctr tric ico. o. Dado Dado que que la má máqu quin ina a de Babb Babbag age e no era era eléctrica, y dado que los computadores digitales son en cierto sentido
equivalentes, podemos ver que el uso de electricidad no tiene una importancia teórica. Por supuesto que se usa la electricidad cuando se nece necesi sita ta una una tran transm smis isió ión n rápi rápida da de se seña ñale les, s, as asíí que que no es sorp so rpre rend nden ente te que que los los enco encont ntre remo moss en am amba bass co cone nexi xion ones es.. En el sistema nervioso, los fenómenos químicos son, al menos, igual de importantes que los eléctricos. En algunos computadores, el sistema de almacenamiento es básicamente acústico. Por lo tanto, el rasgo de utiliz utilizar ar ele electr ctrici icidad dad puede puede ser visto visto como como simili similitud tud superf superfici icial. al. Si querem queremos os encon encontra trarr esa esass simili similitud tudes, es, debemo debemoss entonc entonces es busca buscarr analogías matemáticas de función.
5 Universalidad de los computadores digitales.
Los comput computado adores res digita digitales les consid considera erados dos en la última última sec secció ción n podrían ser clasificados entre las “máquinas de estados discretos”. Esta Estass so son n la má máqu quin inas as que que se muev mueven en usan usando do sa salt ltos os (o clic clicks ks)) repentinos de un estado finito a otro. Estos estados son lo sufi sufici cien ente teme ment nte e dist distin into toss co como mo para para desc descar arta tarr la posi posibi bili lida dad d de confun confundir dirlos los.. Estric Estrictam tament ente e hablan hablando, do, no existe existen n tales tales máquin máquinas. as. Todo se mueve realmente de manera continua. Pero hay muchos tipos de máquinas que pueden ser provechosamente consideradas como máquinas de estados discretos. Por ejemplo, el considerar los inte interr rrup upto tore ress de un sist sistem ema a de ilum ilumin inac ació ión n se serí ría a una una ficc ficció ión n conveniente en la que cada interruptor esté definitivamente prendido o apagado. Debe haber posiciones intermedias, pero para la mayoría de nuestros propósitos, nos podemos olvidar de ellos. Como ejemplo de una máquina de estados discretos podríamos considerar una rueda que se mueve en 120° una vez por segundo, pero que se puede detener con una palanca externa; además, una lámpara se enciende en una de las posiciones de la rueda. La máquina puede ser descrita abstractamente como sigue: el estado interno de la máquina (la cual es descrita por la posición de la rueda) podría estar en q1, q2, o q3. Hay una señal de input io o il (corresponde a la posición de la palanca). El estado interno en cualquier momento está determinado por el último estado y la señal de input de acuerdo a esta tabla:
Las señales de output, las únicas señales visibles externamente que indican los estados internos (la luz), son descritas por la tabla de estados:
Este es un ejemplo típico de una máquina de estados discretos. Éstas pueden ser descritas por estas tablas, siempre y cuando posean un número finito de estados posibles. Pareciera que dado el estado inicial de la máquina y las señales de input siempre sería posible predecir los estados futuros. Esto es una reminiscencia de la visión de Laplace que establecía que es posible definir todo estado futuro en el universo para determinado momento si es que que se tien tienen en toda todass las las posi posici cion ones es y velo veloci cida dade dess de las las partículas. La predicción que estamos considerando es, sin embargo, más cercana a la practicabilidad que a la visión de Laplace. El sistema del “universo como un todo” es tal, que pequeños errores en las condiciones iniciales pueden tener un efecto inmenso en un tiempo posterior. El desplazamiento de un solo electrón en una billonésima de ce cen ntíme tímettro en det deter ermi mina nad do mome momen nto pod podría ría gener enerar ar una diferencia entre un hombre siendo asesinado en una avalancha un año después, después, o que escape de ella. Es una propiedad propiedad esencial esencial de los sist sistem emas as me mecá cáni nico coss que que hemo hemoss llam llamad ado o “m “máq áqui uina nass de es esta tado doss discretos” que este fenómeno no ocurra. Incluso cuando consideramos las máquinas físicas reales en vez de las idealizadas, el conocimiento razonablemente preciso de un estado en determinado momento produce un conocimiento razonablemente preciso luego de una cierta cantidad de pasos. Como hemos mencionado, los computadores digitales caben dentro de la clase de máquinas de estados discretos. Pero el número de estados de los cuales una máquina es capaz es, con frecuencia, tremendamente grande. Por ejemplo, el número de estados para la máquina trabajando en Manchester es aproximadamente de 2 165,000 es decir, cerca de 1050,000. Compare eso con nuestro ejemplo de la rueda rueda antes antes mencio mencionad nado, o, el cual cual tenía tenía tres tres estado estados. s. No es difíci difícill visualizar por qué el número de estados debiera ser tan inmensamen inmensamente te grande. grande. El computador computador incluye un almacenam almacenamiento iento correspondiente a la cantidad de papel usado por un computador huma humano no.. Debe Debe se serr posi posibl ble e es escr crib ibir ir en el luga lugarr de alma almace cena naje je cual cualqu quie iera ra de las las co comb mbin inac acio ione ness de símb símbol olos os que que hubi hubier eran an sido sido escritas en papel. En términos prácticos, suponga que los dígitos entre 0 y 9 son usados como símbolos. Las variaciones en la caligrafía son ignoradas. Suponga que al computador se le entregan 100 hojas
de papel, con 50 líneas cada una, y a su vez, cada línea con 30 dígitos. Por lo tanto, el número de estados es 10100x50x30—es decir, 10150,000. Este es el número aproximado de estados de tres máquinas de Manchester juntas. El logaritmo de base 2 con el número de estados es conocido como la “capacidad de almacenamiento” de la máqu má quin ina. a. De es esta ta ma mane nera ra,, la má máqu quin ina a de Manc Manche hest ster er tien tiene e una una capa ca paci cida dad d de alma almace cena naje je de apro aproxi xima mada dame ment nte e 165. 165.00 000, 0, y la máquin máquina-r a-rued ueda a de nuestr nuestro o eje ejempl mplo, o, 1,6. 1,6. Si las dos máquin máquinas as son unid unidas as,, sus sus ca capa paci cida dade dess debe deben n se serr suma sumada dass para para obte obtene nerr la capacidad de la máquina resultante. Esto lleva a la posibilidad de aseveraciones tales como “la máquina de Manchester contiene 64 pistas cada una con una capacidad de 2560, ocho tubos electrónicos con una capacidad de 1280. El almacenaje heterogéneo alcanza a 300, alcanzando un total de 174.380”. Dada la tabla correspondiente a una máquina de estados discretos, es posible predecir qué es lo que hará. No hay razón para creer que este cálculo no pudiera ser llevado a cabo por un computador digital. Dado que podría ser llevado a cabo lo suficientemente rápido, el comput computado adorr digita digitall podría podría imitar imitar el compor comportam tamien iento to de cualqu cualquier ier máqu má quin ina a de es esta tado doss disc discre reto tos. s. El jueg juego o de la imit imitac ació ión n podr podría ía entonces ser jugado con la máquina en cuestión (como si fuera B), y el co comp mput utad ador or digi digita tall que que imit imita a (com (como o A) y el inte interr rrog ogado adorr se serí ría a incapaz de distinguirlos. Por supuesto, el computador digital debe tener una capacidad de almacenamiento adecuada así como también funcionar lo suficientemente rápido. Además, debe ser programado de nuevo para cada máquina que se desea que imite. Se puede aludir a esta propiedad especial de los computadores digi digita tale les, s, que que pued puedan an imit imitar ar una una má máqu quin ina a de es esta tado doss disc discre reto tos, s, diciendo que son máquinas universales. La existencia de máquinas con co n es esta ta prop propie ieda dad d tien tiene e la co cons nsec ecue uenc ncia ia impo import rtan ante te de que, que, consideraciones de velocidad dejadas de lado, es innecesario diseñar var varias ias má máqu quin ina as nuev nuevas as par ara a que que hag hagan var variado iadoss pro proce ceso soss comp co mput utac acio iona nale les. s. To Todo do ello elloss pued pueden en se serr reali realiza zado doss co con n un so solo lo computador computador digital digital que se encuentre encuentre programad programado o adecuadam adecuadamente ente para cada caso. Se puede vislumbrar como consecuencia de esto que todos los computadores digitales son equivalentes en cierto sentido. Ahora podríamos considerar nuevamente el punto mencionado al fina finall de la se secc cció ión n 3. Se sugi sugiri rió ó tent tentat ativ ivam amen ente te que que la preg pregun unta ta “¿pueden las máquinas pensar?” debiera ser reemplazada por “¿hay computadores digitales les imaginables que tendrían un buen dese desemp mpeñ eño o en el jueg juego o de la imit imitac ació ión? n?”. ”. Pe Pero ro en virt virtud ud de la propiedad de universalidad podemos ver que cualquiera de estas preguntas es equivalente a lo siguiente: “Permitámonos fijar nuestra atención en un computador C en particular. ¿Sería cierto que si se modifica este computador de manera tal que exhiba un
almacenamiento adecuado, un aumento en su velocidad de acción, y dado dado que que se le entr entreg egue ue el prog progra rama ma apro apropi piad ado, o, podr podría ía C juga jugarr satisfactoriamente la parte de A en el juego de la imitación, mientras que B sea llevada a cabo por un hombre?. 6 Perspectivas contrarias sobre la pregunta principal.
Ahora podemos considerar que el terreno ha sido delimitado, y nos encontramos listos para proceder con el debate sobre la pregunta “¿pu “¿pued eden en pens pensar ar las las má máqu quin inas as?” ?” y la vari varian ante te de es esta ta preg pregun unta ta presentada al final de la última sección. No podemos abandonar del todo la versión original de problema, dado que las opiniones variarán con respecto a la idoneidad de la substitución y debemos al menos escuchar lo que se pueda decir sobre esta conexión. Se simplificaran ciertos asuntos para el lector si primero explico mis propias ideas con respecto al tema. Consideremos la versión más precisa de la pregunta. Creo que en un periodo de tiempo de 50 años serrá posi se posibl ble e prog progra rama marr co comp mput utad ador ores es,, co con n una una ca capa paci cida dad d de 9 almacenaje de alrededor de 10 , para que puedan jugar el juego de la imit imitac ació ión n de tal tal ma mane nera ra que que el inte interr rrog ogad ador or prom promed edio io no pued pueda a obtener más de un 70% de posibilidades de hacer la identificación acertada luego de cinco minutos de preguntas. Con respecto a la pregunta original, ¿pueden las máquinas pensar?”, creo que no tiene mucho sentido como para merecer discusión. No obstante, creo que cuando lleguemos a finales de siglo, el uso de las palabras y la opinión educada general habrán cambiado tanto, que uno podrá ser capaz de hablar de máquinas pensantes sin esperar que exista una contradicción. Creo además que ningún propósito útil se puede lograr al ocultar estas ideas. La visión popular que los científicos proceden inexor inexorabl ableme emente nte desde desde los hechos hechos bien bien establ estableci ecidos dos hacia hacia otros otros hechos hechos bien bien establ estableci ecidos dos sin nunca nunca ser influe influenci nciado adoss por alguna alguna conjetura no probada es bastante equivocada. Dado que se hace claro cuáles son los hechos probados y cuáles son conjeturas, no pued puede e habe haberr nin ningún gún daño daño.. La Lass co conj njet etur uras as pose poseen en una una gran importancia debido a que éstas sugieren líneas útiles de investigación. Ahora procedo a considerar opiniones opuestas a las mías. (I) La objeción teológica. Pensar es una función del alma inmortal
del hombre. Dios le ha otorgado un alma inmortal a cada hombre y mujer, pero no a otros animales o máquinas. Por lo tanto, ningún animal o máquina puede pensar1.
Soy Soy inca incapa pazz de ac acep epta tarr es esto to en lo abso absolu luto to,, pero pero inte intent ntar aré é responder responder en términos términos teológico teológicos. s. Encontrar Encontraría ía más convincen convincente te el
argumento si los animales fueran clasificados junto con los hombres, ya que según mi criterio, hay una diferencia aún más grande entre el típico ser animado y el inanimado que entre el hombre y los otros animales. El carácter arbitrario de la visión ortodoxa se hace más claro si consideramos cómo podría parecer para el miembro de otra comunidad religiosa. ¿Cómo pueden los cristianos considerar la visión musulmana de que las mujeres no tienen alma? Pero dejemos este punto de lado y volvamos a la discusión central. Me parece que el argu argume ment nto o ante antess me menc ncio iona nado do impl implic ica a una una rest restri ricc cció ión n se seri ria a a la omnipotencia del Todopoderoso. Es admisible que haya cosas que Él no pueda hacer, tal como igualar uno con dos, pero ¿no deberíamos creer que Él tiene la libertad de conferir un alma a un elefante si a Él le parece? Podríamos esperar que Él pusiera en práctica este poder en co conj njun unci ción ón co con n una una muta mutaci ción ón que que prov provea ea al elef elefan ante te co con n un cerebro apropiadamente mejorado para ministrar las necesidades de esta alma. Una discusión con la misma forma podría hacerse en el caso de las máquinas. Podría parecer distinta, porque es más difícil de “tragar”. Pero esto sólo significa que pensamos que sería menos probable que Él pudiera considerar apropiadas estas circunstancias para conferir un alma. Las circunstancias en cuestión son discutidas en el resto sto de es estte ar arttícul ículo o. En un inte inten nto de co con nstr struir es esta tass máquin máquinas, as, no deberí deberíamo amoss usurp usurpar ar tan irreve irreveren rentem tement ente e Su poder poder par para crea crearr alm almas de ma man ner era a tan dis distin tinta a co como mo cuan cuando do nos encontramos en la procreación de niños: más bien, en cada caso somos instrumentos de Su voluntad al proveer mansiones para las almas que Él crea. Sin embarg embargo, o, esto esto es mera mera especu especulac lación ión.. No me impres impresion ionan an much mucho o las las disc discus usio ione ness teol teológ ógic icas as,, se sea a cual cual se sea a el tema tema.. Ta Tale less discusiones han sido frecuentemente insatisfactorias en el pasado. En los tiempos de Galileo, se discutía que los textos “Y el sol se quedó quieto… y consideró no bajar por un día” (Josué Cap. 10, v.13) y “Él puso los cimientos de la tierra, para que no se moviera en ningún momento” (Salmos Cap. 105, v.5) eran una refutación adecuada para la teor teoría ía de Co Copé pérn rnic ico. o. Co Con n nues nuestr tro o ac actu tual al co cono noci cimi mien ento to,, tal tal argu argume ment nto o pare parece ce fúti fútil. l. Cuan Cuando do es ese e co cono noci cimi mien ento to no es esta taba ba disponible, causaba una buena impresión. (2) La objeción de las “cabezas en la arena”. “La consecuencia
de que las máquinas piensen sería demasiado espantosa. Esperemos y creamos que no lo pueden hacer”.
Este argumento es rara vez expresado tan abiertamente como recién se plantea. Pero afecta a la mayoría de los que pensamos en ello. Nos gusta creer que el hombre es sutilmente superior al resto de la creación. Es mejor si se puede demostrar que es necesariamente superior, ya que entonces no hay peligro de que pierda su posición de mando mando.. La popul populari aridad dad del argume argumento nto teológ teológico ico está está claram clarament ente e
conectada con esta sensación. Es probable que sea bastante fuerte entre los intelectuales, dado que ellos valoran el poder de pensar más que que otros tros,, y es esttán más incl inclin inad ado os a basa sarr su cree creenc ncia ia en la superioridad del Hombre en base a este poder. No creo que este argumento sea lo suficientemente sustancial como como para para requer requerir ir refuta refutació ción. n. El consue consuelo lo ser sería ía más apropi apropiado ado;; quizás eso debiera buscarse en la trasmigración de las almas. (3) La objeción Matemática. Hay un número de resultados en la
lógica matemática que puede ser usado para mostrar que existen limitaciones para los poderes de una máquina de estados discretos. El má máss co cono noci cido do de es esto toss resu result ltad ados os es el teor teorem ema a de Göde Gödel, l, y demu demues estr tra a que que en cual cualqu quie ierr sist sistem ema a lógi lógico co lo sufi sufici cien ente teme ment nte e poderoso se pueden formular aseveraciones que no se pueden ni probar ni desaprobar dentro del sistema, a menos que el sistema en sí sea posiblemente inconsistente. Algunos resultados similares en alguno algunoss aspect aspectos os se encuen encuentra tran n en el trabaj trabajo o de Church Church (1936) (1936),, Kleene (1935), Rosser (1936), y Turing (1937). El último resultado es el más conveniente de considerar, dado que refiere directamente a las máquinas mientras que otros sólo pueden ser usados comp co mpar arat ativ ivam amen ente te en disc discus usio ione ness indi indire rect ctas as;; por por ejem ejempl plo, o, si el teorema de Gödel es usado, necesitamos tener además algún medio para describir sistemas lógicos en términos de máquinas, y máquinas en términos de sistemas lógicos. El resultado en cuestión se refiere a un tipo de máquina que es esencialmente un computador digital con una capaci capacidad dad infini infinita. ta. Establ Establece ece que hay cierta ciertass cos cosas as que una una máquina con estas características no puede hacer. Si se le arma para que de respuestas a preguntas como las del juego de la imitación, habrá algunas preguntas a las cuales responderá erróneamente, o fallará en responder de plano, independientemente del tiempo que se le entregue para responder. Por supuesto, podría haber muchas de esas preguntas, y preguntas que no podrían ser respondidas por una máqu má quin ina, a, podr podría ían n se serr resp respon ondi dida dass sa sati tisf sfac acto tori riam amen ente te por por otra otra.. Estamos suponiendo en este caso que las preguntas son del tipo “si” y “no”, y no del tipo ¿”qué piensas sobre Picasso?”. Las preguntas que las máquinas deberían fallar son del tipo “considere la máquina espe es peci cifficad icada a de la sigui iguien ente te maner anera… a… ¿pod ¿podrrá es estta má máqu quin ina a responder alguna vez ‘si’ a alguna pregunta?”. Los puntos deben ser reemplazados por la descripción habitual de una máquina, que podría ser algo así como la usada en la sección 5. Cuando la máquina descrita posee cierta relación comparativa simple con la máquina que esta siendo interrogada, se puede demostrar que la respuesta es equivocada o poco clara. Este es el resultado matemático: se plantea que hay una discapacidad en las máquinas que un ser humano no posee.
La respuesta breve a este debate es que, aunque se establece que hay limitaciones para el poder de cualquier máquina, solo se ha dicho que, sin ningún tipo de prueba, tales limitaciones no se aplican al intelecto humano. Pero no creo que esta visión pueda ser descartada rápidamente. Siempre que se le haga la respuesta crítica correcta a una de estas máquinas, y den una respuesta definitiva, sabemos que esta respuesta debe estar equivocada, y eso nos da cierta sensación de superioridad. ¿Es esta sensación ilusoria? No cabe duda que sea genuina, pero no creo que se le deba dar demasiada importancia. Con bast bastan ante te frec frecue uenc ncia ia resp respon onde demo moss equi equivo voca cada dame ment nte e co como mo para para justificar algún tipo de satisfacción por tener evidencia de la falibi falibilid lidad ad de las máquin máquinas. as. Además Además,, nuestr nuestra a superi superiori oridad dad sól sólo o se puede sentir en las ocasiones en las que se relacione con la máquina que que derr derrot otam amos os y que que nos nos da una una se sens nsac ació ión n de triu triunf nfal alis ismo mo.. No habría opción de sentir ningún triunfalismo sobre todas las máquinas. En pocas palabras, puede que haya hombres más inteligentes que cualquier máquina, pero de nuevo, puede que haya otras máquinas aún más inteligentes, y así. Creo Creo que que aqué aquéll llos os que que se afer aferra ran n a la disc discus usió ión n ma mate temá máti tica ca deberían estar dispuestos a aceptar el juego de la imitación como una base base para para la disc discus usió ión. n. Aqué Aquéll llos os que que creen creen en las dos dos prim primer eras as objeciones probablemente no estén interesados en ningún criterio. Este argu argume ment nto o se (4) (4) El ar argu gume ment nto o desd desde e la conc concie ienc ncia ia Este .
encuentra muy bien expresado en el discurso ceremonial en Lister del profesor Jefferson en 1949: Hasta que una máquina pueda escribir un soneto o componer un concierto debido a las emociones y pensamientos que tuvo, y que no sea debido al uso de símbolos, podremos estar de acuerdo que máquina es igual a cerebro – es decir, no sólo que lo escriba, sino saber que lo escribió. Ningún mecanismo podría sentir (y no sólo una mera señal artificial, o un arreglo sencillo) placer por sus éxitos, sentir pesar cuando se le funde una válvula, sentirse bien con con un hala halago go,, sent sentir irse se miser iserab able le por por sus sus erro errore res, s, esta estarr encantado por el sexo, estar enojado o deprimido cuando no consigue lo que quiere.
Este argumento parece ser una negación a la validez de nuestra prueba. De acuerdo a la forma más extrema de esta visión, la única manera con la cual uno podría estar seguro de que una máquina piensa es ser la máquina y sentir su propio pensamiento. Por tanto, se podría describir estas sensaciones al mundo, pero por supuesto nadie esta es tarí ría a just justif ific icad ado o de pode poderr perc percat atar arse se.. De ma mane nera ra simi simila lar, r, de acuerdo a esta visión, la única manera de saber que un hombre piensa es ser ese hombre en particular. Éste es el punto de vista de un solipsista. Esa sería la visión más lógica de sostener, pero hace difícil la comunicación de las ideas. A es responsable de creer “A
piensa pero B no”, mientras que B cree “B piensa pero A no”. En vez de argume argument ntar ar contin continuam uament ente e contra contra este este punto, punto, se recomi recomiend enda a tener la convención educada de que todos pensamos. Estoy seguro de que el profesor Jefferson no quiere adoptar el punto de vista extremista del solipsismo. Probablemente él se encontraría dispuesto a aceptar el juego de la imitación como una prueba. El juego (con el jugador B omitido) es usado frecuentemente en la prác prácti tica ca co con n el nomb nombre re de viva viva voce voce para descub descubrir rir si alguie alguien n realmente entiende algo o ha “aprendido como loro”. Escuchemos una parte de un viva voce: Interrogador: Interrogador: en la l a primera línea de su soneto, el cual dice “deberíais compararles con un día de verano”, ¿no sería igual o mejor decir “un día de primavera”? Testigo: no se podría leer. Interrogador: Interrogador: y si usamos “un día de invierno”. Ese si se podría leer. Testigo: si, pero pero nadie quiere quiere ser comparado comparado con un día de invierno. Inter Interrog rogad ador: or: ¿se ¿se podrí podría a decir decir que que el Sr. Pickw Pickwick ick le recue recuerda rda la navidad? Testigo: de cierta cierta manera. Interrogador: pero la navidad es un día de invierno, y no creo que al Sr. Pickwick le importe la comparación. comparación. Testigo: no creo que que estés hablando hablando en serio. Cuando uno dice día de invierno se refiere a un día típico de invierno más que a uno especial como la navidad.
Y se podría continuar. ¿Qué diría el profesor Jefferson si la máquina escritora escritora de sonetos sonetos fuera capaz de responder responder de esta manera manera en el viva voce? No sé si el consideraría a la máquina como si estuviera mandando “meras señales artificiales” para responder, pero si las respue res puesta stass fueran fueran satisf satisfact actor orias ias y sos sosten tenida idass como como en el pasaj pasaje e anterior, no creo que las describiría como un “arreglo sencillo”. Creo que esta frase tiene por intención cubrir a dichos dispositivos en los cuales a una máquina se le incluye la grabación de alguien que lee un soneto, con un interruptor apropiado para prenderlo de cuando en cuando. En pocas palabras, creo que aquellos que apoyan el argumento de la concie concienci ncia a podría podrían n ser persu persuadi adidos dos de abando abandonar narlo lo en vez de forzar una posición solipsista. Probablemente, estarán dispuestos a aceptar nuestra prueba. No quisiera dar la impresión de que creo no hay un misterio con resp respec ecto to a la co conc ncie ienc ncia ia.. Ha Hay, y, por por ejem ejempl plo, o, algo algo as asíí co como mo una una paradoja en conexión con cualquier intento de localizarla. Pero no creo que estos misterios deban ser resueltos antes de que podamos responder la pregunta que concierne a este artículo.
(5) Argume Argument ntos os desde desde las discap discapaci acidad dades es múltip múltiples les.. Estos
argumentos toman la forma “Te aseguro que puedes hacer máquinas que hagan todas las cosas que dices, pero nunca podrás hacer una que sea capaz de X”. Varias características de X se sugieren en relación a esto. Yo mismo ofrezco una selección: Ser amable amable,, ingeni ingenioso oso,, hermo hermoso, so, amigab amigable le (44), (44), tener tener iniciativa, tener sentido del humor, diferenciar lo correcto de lo inco incorr rrec ecto to,, co come mete terr erro errore ress (44) (44),, enam enamor orar arse se,, disfrutar las frutillas con crema (44), hacer que alguien se enamore de él, aprender de la experiencia (50), usar las pala palabr bras as apro apropi piad adam amen ente te,, se serr suje sujeto to de sus sus prop propio ioss pensamientos (45), tener tanta diversidad de conductas como un hombre, hacer algo realmente novedoso (46), (Alg (Algun unas as de es esta tass disc discap apac acid idad ades es se les les da es espe peci cial al consideración en la páginas indicadas).
No existe algo que sirva de soporte para estas declaraciones. Creo que la mayoría se basan en el principio de inducción científica. Un hombre ve miles de máquinas en su vida. Y de acuerdo a lo que ve, saca una cantidad de conclusiones generales. Son feas, se diseñan con un propósito muy limitado, y cuando se les requiere para una cosa ligeramente diferente, no sirven, la variedad de conductas es muy poca, y así sucesivamente. Naturalmente, un hombre concluye que estas son en general propiedades necesarias de las máquinas. Mucha Muchass de estas estas limita limitacio ciones nes se encuen encuentra tran n aso asocia ciada dass a la poca poca capacidad de almacenaje de la mayoría de ellas (asumo que la idea de ca capa paci cida dad d de alma almace cena naje je incl incluy uye e de algu alguna na ma mane nera ra a otra otrass máquinas distintas a las máquinas de estados discretos. La definición exac exacta ta no impo import rta a dado dado que que no se so sost stie iene ne ning ningun una a prec precis isió ión n matemática en esta discusión). Algunos años atrás, cuando no se sabí sa bía a much mucho o so sobr bre e los los co comp mput utad ador ores es digi digita tale les, s, habí había a much mucha a incredulidad con respecto a ellos, si es que alguien mencionaba sus propiedades sin describir su construcción. Presumiblemente, eso se debía a una aplicación similar del principio de inducción científica. Estas aplicaciones del principio son, por supuesto, inconscientes en su mayoría. Cuando un niño con quemaduras le teme al fuego y demuestra su miedo evitándolo, yo podría decir que él esta aplicando inducción científica. (Por supuesto podría describir su conducta de muchas otras maneras). Los trabajos y costumbres de la humanidad no parecen ser material apropiado sobre el cual aplicar la inducción científica. Una gran parte del espacio-tiempo debe ser investigada si se busca obtener resultados confiables. De otra manera, podríamos (como la mayoría de los niños ingleses lo hacen) decidir que todo el mundo habla inglés, y que por lo tanto es tonto aprender francés.
Sin embargo, se pueden hacer comentarios especiales acerca de las las much mucha as disca iscap pac acid idad ades es que que han han sido sido menci encion onad adas as.. La incapacidad de disfrutar las frutillas con crema podría sorprender al lector dada su frivolidad. Posiblemente, se podría hacer una máquina que disfrute este delicioso plato, pero cualquier intento de crearla serría es se estú túp pido ido. Lo que es impo imporrtan tante con co n res espe pect cto o a esta sta discapacidad es que contribuye a otras discapacidades, por ejemplo, a la difi dificu cult ltad ad del del mism mismo o tipo tipo de am amab abil ilid idad ad entr entre e homb hombre re y máquinas como entre hombre blanco con hombre blanco, o entre hombre negro y hombre negro. La declaración de que “las máquinas no pueden cometer errores” parece curiosa. Uno es tentado a responder ¿”podrían hacerlo aún peor?”. Pero adoptemos una actitud un poco más comprensiva, y veamos que quiere decir realmente. Creo que esta crítica puede ser explicada en términos del juego de la imitación. Se sostiene que interrogador podría distinguir simplemente la máquina del hombre al platearle una cantidad de problemas aritméticos. La máquina sería desenmascarada dado su altísima eficacia. La respuesta a esto es simple. La máquina (programada para jugar el juego) no intentaría dar la respuesta correcta a los problemas aritméticos. Deli Delibe bera rada dame ment nte, e, co come mete terí ría a erro errore ress de ma mane nera ra ca calc lcul ulad ada a para para confundir al interrogador. Una falla mecánica podría probablemente delatar a la máquina con una decisión poco apropiada con respecto al tipo de error que cometa en el cálculo. Incluso esta interpretación de la crítica no es lo suficientemente comprensiva. Pero no podemos dedicarle el espacio para ahondar en ello. Me parece que esta crítica se sostiene en una confusión entre dos tipos de errores. Podríamos etiq etique ueta tarl rlos os co como mo “e “err rror ores es de func funcio iona nami mien ento to”” y “e “err rror ores es de conclusión”. Los errores de funcionamiento se deben a alguna falla mecánica o eléctrica que produce que la máquina se comporte de una manera distinta con respecto a la cual fue diseñada. En la discusión filosófica a uno le gusta ignorar la posibilidad de tales errores; uno se encuentra por lo tanto discutiendo sobre “máquinas abstractas”. Estas máquinas abstractas son ficciones matemáticas máss que má que obje objeto toss físi físico cos. s. Po Porr defi defini nici ción ón,, inca incapa pace cess de pres presen enta tarr error errores es de funcio funcionam namien iento. to. En este este sentid sentido, o, podemo podemoss rea realme lmente nte deci decirr que que “las “las má máqu quin inas as nunc nunca a co come mete ten n erro errore res” s”.. Erro Errore ress de conclu conclusió sión n sól sólo o se pueden pueden produ producir cir cuando cuando algún algún adjunt adjunta a algún algún sign signif ific icad ado o a las las se seña ñale less de outp output ut de la má máqu quin ina. a. La má máqu quin ina a podría, por ejemplo, digitar ecuaciones matemáticas, u oraciones en ingl inglés és.. Cuan Cuando do se tipe tipea a una una prop propos osic ició ión n fals falsa, a, deci decimo moss que que la máquina ha cometido un error de conclusión. Claramente, no hay razón para decir que la máquina no pueda cometer este tipo de error. Podría solamente tipear repetidas veces “0 = 1”. Al considerar un ejemplo menos rebuscado, se podría tener algún método para dar conclusiones a través de la inducción científica. Debemos esperar que un método así que nos lleve a resultados erróneos ocasionalmente.
La aseveración de que una máquina no puede ser el sujeto de su propio pensamiento sólo puede ser respondida si se puede mostrar que la máquina posee algún pensamiento con algún contenido. No obst obstan ante te,, “e “ell co cont nten enid ido o de las las oper operac acio ione ness de una una má máqu quin ina” a” no pareciera significar algo, al menos para las personas que tratan con ella. Si, por ejemplo, la máquina estuviera tratando de encontrar una soluci sol ución ón para para la ecuaci ecuación ón x2–40x–11= 0, uno se sentiría tentado a describir estas ecuación como parte del contenido de la máquina en ese momento. Podría ser usado para ayudar a crear sus propios programas, o para predecir el efecto de las alteraciones en su propia estructura. A través de la observación de resultados de su propia conducta, podría modificar sus programas de manera tal de alcanzar algú algún n prop propós ósit ito o de ma mane nera ra má máss efec efecti tiva va.. Ésta Éstass so son n má máss bien bien posibilidades para el futuro cercano que sueños utópicos. La crítica que refiere a que una máquina no puede tener una gran variedad de conductas es sólo una manera de decir que no puede tene tenerr una una gran gran ca capa paci cida dad d de alma almace cena naje je.. Has asta ta hace hace poco poco,, la capacidad de almacenaje de incluso mil dígitos era muy rara. Las críticas que estamos considerando acá son con frecuencia formas disfrazadas del argumento de la conciencia. Generalmente, si uno sost so stie iene ne que que una una má máqu quin ina a puede hace hacerr una una de es esta tass co cosa sas, s, y describe el tipo de método que la máquina podría usar, uno no produciría una gran impresión. Se cree que el método (cualquiera que sea, dado que debe ser mecánico) es más bien la base. Compare con el paréntesis de la afirmación de Jefferson mencionada más arriba. (6) La objeción de Lady Lovelace. La información más detallada
del motor analítico de Babbage proviene de una de las memorias de Lady Lovelace. En ésta, ella sostiene que “el motor analítico no tiene pretensio pretensiones nes de originar nada nada.. Pued Puede e hace hacerr cualqu cualquier ier cosa cosa que sepamos ordenarle que haga” (su cursiva). Esta declaración es citada por Hartree, que añade: “esto no implica que no sea posible construir un equipamiento electrónico que podrá ‘pensar por sí mismo’, o sobre el cual, cual, en términ términos os biológ biológico icos, s, uno pudier pudiera a config configura urarr un reflej reflejo o condicionado, el que podría servir como la base del ‘aprendizaje’. Si es que esto es posible en principio o no es una pregunta estimulante y apasionante, y es sugerida debido a algunos de los desarrollos recientes. Pero no parece que las máquinas construidas o proyectadas en ese momento pudieran tener esta propiedad”. Estoy completamente de acuerdo con Hartree. Uno podrá notar que él no asevera que las máquinas en cuestión no tuvieran la propiedad, sino que la evidencia disponible para Lady Lovelace no la alentaba a creer que la tuvieran. Es muy posible que las máquinas en cuestión tuvi tuvier eran an es esta ta prop propie ieda dad d en cier cierto to se sent ntid ido. o. Supo Supong nga a que que algu alguna na máquina de estados discretos tiene la propiedad. El monitor analítico
era era un co comp mput utad ador or univ univer ersa sall digi digita tal, l, as asíí que, que, si la ca capa paci cida dad d de almacenaje y velocidad velocidad fueran adecuadas, adecuadas, se podría podría a través de de una prog progra rama maci ción ón apro apropi piad ada a hace hacerr que que se imit imitar ara a a la má máqu quin ina a en cuestión. Probablemente este argumento no se le ocurrió ni a la Cond Co ndes esa a ni a Babb Babbag age. e. En cual cualqu quie ierr ca caso so,, no tení tenían an ning ningun una a obligación de decir todo lo que se puede decir. Toda es Toda esta ta preg pregun unta ta se será rá co cons nsid ider erad ada a nuev nuevam amen ente te bajo bajo el encabezado de máquinas que aprenden. Una variante de la objeción de Lady Lovelace establece que una máqu má quin ina a “nun “nunca ca hace hace nada nada real realme ment nte e nuev nuevo” o”.. Esto Esto podr podría ía se serr aludido desde la perspectiva de “no hay nada nuevo bajo el sol”. Quién puede tener certeza que el “trabajo original” que alguien haya hecho no fue solamente el crecimiento de una semilla plantada en él a través de la enseñanza, o el efecto de seguir principios generales bien sabidos. Una variante mejor a la objeción dice que una máquina nunca puede “sorprendernos”. Esta declaración es un desafío más directo y sale a su encuentro de manera directa. Las máquinas me sorprenden con gran frecuencia. Esto se debe en gran medida al hecho de que yo no hago el cálculo suficiente para decidir qué puedo esperar de ellas, o más bien porque, aunque hago una estimación, lo hago apurado, con descuido, tomando riesgos. Quizás me digo a mi mismo, “supongamos que el voltaje acá debiera ser el mismo que allá: simplemente asumámoslo así”. Naturalmente, con frecuencia me equivoco, y el resultado es una sorpresa, y para cuando el experimento se lleva a cabo, estos supuestos ya se han olvidado. Reconocer lo anterior me permite estar abierto a reproches sobre mi mane ma nerra desc descui uida dad da, per ero o no pos osic icio ion nan nin ningun guna dud duda en la credibilidad de mi testimonio sobre mi experiencia de sorpresa. No espero que esta respuesta silencie a mi crítico. Él probablemente dirá que esas sorpresas se deben a algún acto mental creativo de mi parte, y que no otorga ningún crédito a la máquina. Esto nos lleva de vuelta a la discusión sobre la conciencia, y lejos de la idea de la sorpresa. Esta es una línea argumentativa que debemos cons co nsid ider erar ar ce cerr rrad ada, a, pero pero quiz quizás ás valg valga a la pena pena dest destac acar ar que que la apre apreci ciac ació ión n de algo algo co como mo so sorp rpre resi sivo vo requ requer erir irá á un “a “act cto o me ment ntal al creativo”, si es que el evento sorpresivo se origina desde un hombre, una máquina o cualquier cosa. La perspectiva de que las máquinas no producen sorpresas se debe, creo yo, a una falacia a la cual se encuentran sujetos tanto filósofos filósofos como matemático matemáticos. s. Es el supuesto supuesto de que tan pronto pronto como se presente un hecho a una mente, todas las consecuencias de ese hecho florecen en ella de manera simultánea. Es un supuesto muy útil en muchas circunstancias, pero uno olvida demasiado fácilmente que es falso. Una consecuencia natural de hacer esto es que uno
asume que no hay ventaja en la simple búsqueda de consecuencias de los datos y los principios generales. (7) Argumento desde la continuidad en el sistema nervioso.
Con toda certeza, el sistema nervioso no es una máquina de estados discretos. Un pequeño error en la información acerca del tamaño del impulso nervioso que afecte a una neurona, podría hacer una gran diferencia en el tamaño del impulso saliente. Se podría sostener que, si así fuera, no se puede esperar la capacidad de imitar la conducta del sistema nervioso con un sistema de estados discretos. Es verdad que una máquina de estados discretos debe ser diferente de una máquina continua. Pero si adherimos a las condiciones del juego de la imitación, el interrogador no será capaz sacar provecho de es estta difer iferen enci cia. a. La situ ituac ació ión n se pued puede e hace hacerr má máss clar clara a si consideramos a otras máquinas continuas más simples. Un analizador diferencial servirá. (Un analizador diferencial en un tipo de máquina, que no es del tipo de estados discretos, y que se usa para algunos tipos de cálculos). Algunos de éstos generan sus respuestas a través de tipeo, por lo que son adecuadas para formar parte del juego. No sería posible para un computador digital predecir exactamente qué resp respue uest stas as darí daría a el anal analiz izad ador or dife difere renc ncia iall para para dete determ rmin inad ado o problema, pero sería muy capaz de dar el tipo correcto de respuesta. Por ejemplo, si se le pidiera que de el valor de π (cerca de 3.1216), sería razonable elegir azarosamente entre valores 3.12, 3.13, 3.14, 3.15, 3.16 con las probabilidades de 0.05, 0.15, 0.55, 0.19, 0.06 (por deci decirr algo algo). ). Bajo Bajo es esta tass circ circun unst stan anci cias as,, se serí ría a muy muy difí difíci cill para para el interrogador distinguir entre el analizador diferencial y el computador digital. (8) El argumento desde la informalidad de la conducta. No es
posible producir una lista de reglas que pretendan describir lo que un hombre debiera hacer en cada circunstancia concebible. Uno podría, por ejemplo, tener una regla en la que se debe parar cuando alguien ve un semáforo en rojo, y de seguir si alguien ve la luz verde; pero, ¿qué pasa si por alguna falla, ambas luces aparecen juntas? Uno quizás decidiría detenerse ya que es más seguro. Pero una nueva dificultad se produciría más tarde por esta decisión. El intento de proveer reglas de conducta para cubrir cada eventualidad, incluso aquellas que se producen por los semáforos, parece imposible. Estoy de acuerdo con todo esto. Dado lo anterior, se dice que no podemos ser máquinas. Trataré de reproducir el argumento, pero me temo que no podré hacerle justicia. Parrec Pa ecie ierra que es algo algo as así: í: “Si “Si cada ada hombr mbre tuvi tuvier era a un grupo rupo determinado de reglas de conducta por las cuales él regulara su vida, no sería más que una máquina. Pero no existen tales reglas, así que los hombres no pueden ser máquinas”. La parte no-distribuida del
medio es deslumbrante. No creo que el argumento se haya propuesto así alguna vez, no obstante creo que ese es el argumento que se da. Sin embargo, podría hacer una cierta confusión entre las “reglas de conducta” y las “leyes de comportamiento”. Se entiende por “reglas de conducta” los preceptos tales como “detenerse si uno ve una luz roja”, sobre las cuales alguien puede actuar, y de las cuales se está conciente. Se entiende por “leyes de comportamiento” las leyes de la natu natura rale leza za apli aplica cabl bles es al cuer cuerpo po de un homb hombre re,, tale taless co como mo “s “sii lo pinchas, va a chillar”. Si substituimos “leyes de comportamiento que regulan su vida” por “leyes de la conducta que regulan su vida” en el argumento citado con anterioridad, la parte no-distribuida deja de ser insuperable. Creemos que es falso que uno sea algún tipo de máquina por el hecho de ser regulado por leyes del comportamiento (aunque no necesariame necesariamente nte una máquina máquina de estados estados discretos) discretos),, muy por el contrario, creemos que ser esa máquina implica ser regulado por tales leyes. Sin embargo, no podemos convencernos tan fácilmente de la ausenc ausencia ia de leyes leyes comple completas tas del compor comportam tamien iento to así como como podríamos convencernos de la ausencia de reglas completas de la conducta. La única manera que sabemos para descubrir tales leyes es la obse observ rvac ació ión n cien cientí tífi fica ca,, y cier cierta tame ment nte e no sa sabe bemo moss de algu alguna na circ circun unst stan anci cia a so sobr bre e la cual cual poda podamo moss deci decir: r: “hem “hemos os busc buscad ado o lo suficiente. No existen tales leyes”. Podemos demostrar con mayor esfuerzo que cualquier declaración así sería injustificada. Suponemos que podríamos estar seguros de encont encontrar rar tales tales leyes leyes si existi existiera eran. n. Luego, Luego, dada dada una máquina máquina de estados discretos, sería posible ciertamente descubrir a través de una suficiente suficiente cantidad cantidad de observación observación a ella, y así predecir su conducta conducta futura, y todo esto dentro de un tiempo razonable, por decir algo, mil años. Pero este no parece ser el caso. He instalado en el computador de Manchester un programa pequeño usando solo 1000 unidades de almacenamiento, a través del cual se le otorga a la máquina un núme número ro de 16 cifr cifras as de posi posibl bles es resp respue uest stas as en dos dos se segu gund ndos os.. Desafiaría a cualquiera a aprender lo suficiente de las respuestas del programa para ser capaz de predecir cualquier respuesta a valores no probados con anterioridad. (9) El argumento desde la percepción extra-sensorial. Asumo
que el lector se encuentra familiarizado con la idea de percepción extra-sensorial, y del significado de sus cuatro términos, que son tele telepa patí tía, a, clar clariv ivid iden enci cia, a, prec precog ogni nici ción ón y psic psicoq oqui uine nesi sia. a. Estos fenómenos perturbadores parecieran ir en contra de todas nuestras idea ideass cien cientí tífi fica cass usua usuale les. s. ¡Cóm ¡Cómo o nos nos gust gustar aría ía desa desacr cred edit itar arlo los! s! Desa Desafo fort rtun unad adam amen ente te,, la evid eviden enci cia a es esta tadí díst stic ica, a, al me meno noss para para la telepatía, es aplastante. Es muy difícil reordenar nuestras ideas de manera tal de que encajen con estos datos nuevos. Una vez que uno las ha aceptado, no parece un gran avance creer en fantasmas y cucos. La idea de que nuestros cuerpos se mueven simplemente debido a las reglas físicas conocidas, junto a otras que aún no han
sido sido descub descubier iertas tas pero pero que sin embarg embargo o son simila similare res, s, ser sería ía una buena opción por la cual optar. Para mi criterio, este argumento es sólido. Uno puede fácilmente responder que muchas teorías científicas parecen ser factibles en la práctica, a pesar de ir en contra de P. E. S.; de hecho, uno puede olv olvidar idarse se de ello ello sin sin ma mayo yorr proble oblema ma.. Esto sto es más bien bien una una comodidad fría, y uno teme que el pensar sea el tipo de fenómeno donde la P.E.S. podría ser especialmente relevante. Un argumento más específico basado en la P.E.S. podría ser: “Déjanos jugar el juego de la imitación, usando como testigo un hombre que es un buen receptor telepático, y un computador digital. El interrogador puede preguntar cosas tales como ‘¿qué figura tiene la carta que tengo en mi mano derecha?’. El hombre, a través de telepatía o clarividencia, responde correctamente 130 veces de un total de 400 cartas. La máquina sólo puede adivinar azarosamente, y obtiene 104 respuestas correctas, por lo que el interrogador realiza la identificación correcta”. Hay una posibilidad interesante que se abre aquí. Suponga que el computador digital contiene un generador de números al azar. Entonces, será natural usar esto para decidir qué resp respue uest sta a dar. dar. Pe Pero ro lueg luego o el gene genera rado dorr de núme número ross al azar azar se será rá sujeto a los poderes psicoquinéticos del interrogador. Quizás esta psicoquinesia podría hacer que la máquina adivine correctamente con más frecuencia de la esperada por un cálculo de probabilidad, por lo que el interrogador sería incapaz aún de realizar la identificación correcta. Por otro lado, él podría ser capaz de adivinar correctamente sin hacer preguntas, sino a través de la clarividencia. Con la P.E.S. cualquier cosa podría pasar. Si se admite admite la telepatía, será necesario necesario afinar nuestra nuestra prueba. La situación podría ser considerada como análoga a qué ocurriría si el interrogador estuviera hablando consigo mismo en voz alta y uno de los compet competido idores res estuvi estuviera era esc escuch uchand ando o con su oído oído en la pared. pared. Poner a los competidores en una “habitación a prueba de telepatía” bastaría para cumplir los requerimientos. 7 Máquinas que aprenden.
El lector habrá anticipado que no tengo argumentos de naturaleza positiva muy convincentes para apoyar mis puntos de vista. Si los tuviera, no me habría tomado el trabajo de destacar las falacias de pers perspe pect ctiv ivas as co cont ntra rari rias as.. Este Este es el tipo tipo de evid eviden enci cia a que que ahor ahora a entregaré. Volvamos por un momento a la objeción de Lady Lovelace, la cual establecía que la máquina sólo puede hacer lo que le digamos que
haga. Uno podría decir que un hombre hombre puede “inyectar” “inyectar” una idea en la máquina, y que esta responderá hasta cierto punto y luego caerá en un estado de quietud, tal como la cuerda de un piano cuando la golpea el martillo. Otra comparación sería una carga atómica cuyo tamaño es menor al tamaño crítico: una idea inyectada corr co rres espo pond nder ería ía al neut neutró rón n que que entr entra a desd desde e fuer fuera. a. Ta Tall neut neutró rón n caus ca usar ará á cier cierta ta alte altera raci ción ón que que even eventu tual alme ment nte e se ac acab abar ará. á. Sin Sin embargo, si el tamaño de la carga atómica es lo suficientemente incrementada, la alteración causada por la entrada de ese neutrón muy probablem probablemente ente continuar continuará á sucesivam sucesivamente, ente, aumentand aumentando o hasta hasta que la carga se destruya. ¿Existe algún fenómeno que corresponda a las mentes así como hay uno que corresponda a las máquinas? Al pare parece cerr si hay hay uno uno para para la me ment nte e huma humana na.. La ma mayo yorí ría a de ella ellass parecen ser “sub-críticas”, es decir, en la analogía corresponderían a carg ca rgas as de tama tamaño ño sub-c sub-crí ríti tico co.. La idea que se le prese present nta a a una una mente así generará en promedio menos que una idea en respuesta. Una proporción más bien sería super-crítica. Una idea presentada a una mente como ésta última podría generar toda una nueva “teoría” que contenga ideas secundarias, terciarias, o incluso más remotas. Lass me La ment ntes es de los los anim animal ales es pare pareci cier eran an se serr abso absolu luta tame ment nte e subsubcríticas. En relación a esta analogía se puede preguntar, “¿se puede hacer una máquina para que sea super-crítica?” La anal analog ogía ía de la “c “cap apa a de una una ce cebo boll lla” a” tam ambi bién én es útil útil.. Al cons co nsid ider erar ar las las func funcio ione ness de la me ment nte e o el ce cere rebr bro, o, enco encont ntra ramo moss ciertas operaciones que se pueden explicar en términos puramente mecánicos. Decimos que esto no corresponde a una mente real: es un cierto tipo de capa que debemos sacar si queremos encontrar la mente real. Pero luego en lo que queda, encontramos otra capa que se pued puede e remo remove ver, r, y as asíí suce sucesi siva vame ment nte. e. Si se proc proced ede e de es esta ta mane ma nera ra,, ¿pod ¿podem emos os alca alcanz nzar ar en algú algún n mome moment nto o la me ment nte e real real,, o eventualmente llegamos a una capa que no tiene nada? En este último caso, toda la mente sería mecánica. (Sin embargo, no sería una máquina de estados discretos. Ya discutimos esto.) Los dos Los dos últi último moss párr párraf afos os no as aseg egur uran an se serr nece necesa sari riam amen ente te argu argume ment ntos os co conv nvin ince cent ntes es.. Debe Deberí rían an en vez vez se serr desc descri rito toss co como mo “recitados que tienden a producir creencia”. El único fundamento realmente satisfactorio que se puede dar para la visión expresada al principio de la sección 6 será que, debemos esperar el final de siglo y recién entonces, hacer el experimento desc descri rito to.. Pe Pero ro,, ¿qué ¿qué pode podemo moss deci decirr mien mientr tras as tant tanto? o? ¿Qué ¿Qué paso pasoss deberían darse para que el experimento sea exitoso? Como he explicado, explicado, el problema problema tiene que ver básicamente básicamente con la programación. También tendrán que haber avances en la ingeniería, pero parece improbable que estos no vayan a ser adecuados para los
requerimientos. Cifras estimativas con respecto a la capacidad del cerebro varían entre 1010 a 10 15 de dígitos binarios. Yo me inclino por los valores más bajos y creo que sólo una pequeña fracción se usa en los tipos de pensamiento superior. La mayor parte se usa prob probab able leme ment nte e para para la rete retenc nció ión n de impr impres esio ione ness visu visual ales es.. Me sorprendería si más de 109 se requiera para jugar satisfactoriamente el juego de la imitación, o cualquier valor si se juega contra un ciego. (Nota: la capacidad de la Encyclopedia Britannica, undécima edición, es 2 x 109.) Una capacidad de almacenamiento de 107 sería una posibilidad factible incluso con las técnicas actuales. Es probable que no sea necesario incrementar la velocidad de las operaciones de las máquinas en lo absoluto. Las partes de las máquinas modernas, que podrían ser consideradas como análogas a células nerviosas, trabajan cerca de mil veces más rápido que estas últimas. Esto debiera otorgar un margen de seguridad el cual pudiera cubrir perdidas de velocidad que que se prod produz uzca can n de dist distin inta tass ma mane nera ras. s. Po Porr lo tant tanto, o, nues nuestr tro o problema es descubrir cómo programar estas máquinas para jugar el juego. En mi actual tasa de trabajo, produzco cerca de mil dígitos de prog progra rama ma al día, día, por por lo que que ce cerc rca a de se sese sent nta a trab trabaj ajad ador ores es,, que que trabajen regularmente a través de cincuenta años podrían lograr el obje objeti tivo vo,, si es que que nada nada se debe debe dese desech char ar.. Serí Sería a me mejo jorr util utiliz izar ar métodos más expeditos. Durante el proceso de intento de imitación de la mente de un humano adulto tendemos a pensar bastante sobre el proceso que produjo el estado en el que se encuentra. Podríamos mencionar tres componentes: (a) El estado inicial de la mente, digamos al momento de nacer; (b) La educación a la cual fue sujeta; y (c) Otra experiencia, no descrita como educación, a la que haya sido sujeta. En vez de tratar de producir un programa similar a la mente adulta, ¿por qué no tratar en vez de producir una que simule la mente de un niño? Si ésta fuera luego sujeta al curso apropiado de educación, uno obtendría el cerebro adulto. Supuestamente, el cerebro-niño es algo así como un cuaderno que uno compra en una librería. Un mecanismo más bien simple, con muchas hojas en blanco. (Mecanismo y escritura son casi sinónimos para nuestro punto de vista.) Nuestra esperanza es que haya un mecanismo tan pequeño en el cerebro-niño, que permita ser programado fácilmente. Podemos asumir en una primera aproximación que la cantidad de trabajo en la educación sería muy similar a la de un niño humano. Hemos por tanto dividido nuestro problema en dos partes: el pro program grama a - niñ niño y el proc oces eso o educ educat ativ ivo o. Ésto Éstoss per erma man nec ecen en
estrechamente relacionados. No podemos esperar encontrar un buen niño-máquina al primer intento. Uno debe experimentar a través de la enseñanza de una máquina así y ver qué tan bien aprende. Luego, se puede intentar con otra y ver si es mejor o peor. Hay una conexión obvia entre este proceso y la evolución, a través de estas identificaciones: Estructura del niño-máquina = material hereditario Cambios de niño-máquina = Mutaciones Juicio del experimentador = Selección natural Uno podrí podría a espera esperar, r, no obstan obstante, te, que este este proces proceso o ser será á más expe expedi dito to que que la evol evoluc ució ión. n. La so sobr brev eviv iven enci cia a del del má máss apto apto es un método lento para medir ventajas. El experimentador, a través del ejer ejerci cici cio o de la inte inteli lige gen ncia, cia, debie ebierra ser ca capa pazz de ac acel eler erar arlo lo.. Igua Igualm lmen ente te impo import rtan ante te es el hech hecho o de que que él no se encu encuen entr tra a restringido a las mutaciones azarosas. Si puede rastrear la causa para una debilidad, puede probablemente pensar en el tipo de mutación para mejorarla. No será posible aplicar exactamente a una máquina los mismos métodos de enseñanza que se le aplicarían a un niño normal. No se le puede proveer piernas, por ejemplo, por lo que no se le pedirá que vaya a buscar el cubo para el carbón. Posiblemente no tendría ojos. Pero sea como sea que estas deficiencias sean superadas por un diseño inteligentemente planeado, uno no podría enviar a la criatura a la escuela sin que los niños no se burlaran excesivamente de él. Se le debe dar cierta tuición. No debemos preocuparnos tanto de las piernas, ojos, y otra cosas. El ejemplo de la señorita Helen Keller demuestra que la educación puede producirse siempre y cuando la comunicación en ambos sentidos entre maestro y pupilo se produzca de una u otra manera. Normalmente, se asocia los castigos y recompensas al proceso educat educativo ivo.. Se podría podría constr construir uir o progr programa amarr cierto ciertoss tipos tipos de niñoniñomáquina considerando este principio. La máquina debe ser construida de tal manera que los eventos previos a una señal-de-castigo sean poco poco prob probab able less de volv volver er a oc ocur urri rir, r, mien mientr tras as que que la se seña ñall-de de-recompensa aumente la probabilidad de repetición de los eventos que que lo llev llevar aron on a él. él. Esta Estass defi defini nici cion ones es no pres presup upon onen en ning ningún ún sentimiento por parte de la máquina. He hecho algunos experimentos con una de estas niño-máquinas, y tuve éxito al ensañarle algunas cosas, pero el método de enseñanza fue demasiado poco ortodoxo para el experimento como para considerarlo realmente exitoso. El uso de castigos y recompensas puede, en el mejor de los casos, ser una de las partes del proceso de enseñanza. En términos muy
generales, si el profesor no tiene otros medios para comunicarse con el pupilo, la cantidad cantidad de informaci información ón que le llega no debe exceder el número total de recompensas y castigos aplicados. Para el momento en el cual el niño ha aprendido a repetir “Casablanca”, probablemente estará muy adolorido, si el texto se pudiera descubrir a través una técnica tipo "Twenty Questions", en el que cada “No” toma la forma de un golpe. ( N. del T.: “Twenty Questions” es un juego de cartas que fomenta a los concursantes a utilizar razonamiento deductivo y creatividad. Fue creado originalmente en Estados Unidos y aumentó en popularidad durante la última parte de la década de 1940, cuando se convirtió en un formato exitoso para programas de pruebas de conocimiento radiales). Es necesario por lo tanto tener algú algún n otro tro ca can nal de co comu muni nica caci ció ón “no “no em emo ocio cional” nal”.. Si es que estuvi estuviera eran n dispon disponibl ibles, es, ser sería ía posibl posible e enseña enseñarle rle a una máquin máquina a a trav través és de ca cast stig igos os y reco recomp mpen ensa sass a obed obedec ecer er órde órdene ness en algú algún n leng lengua uaje je,, tal tal co como mo el leng lengua uaje je simb simból ólic ico. o. Est Estas órde órdene ness se serrán tran transm smit itid idas as a trav través és del canal canal “no “no em emoc ocio iona nal” l”.. El uso de es este te leng lengua uaje je dism dismin inui uirá rá en gran gran me medi dida da el núme número ro de ca cast stig igos os y recompensas utilizados. Las opiniones pueden variar y complejizarse al punto de discutir qué es apropiado para el niño-máquina. Uno podría tratar de hacerlo lo má máss simp simple le posi posibl ble e para para se serr co cons nsis iste tent nte e co con n los los prin princi cipi pios os generales. O bien, uno podría tener un sistema lógico de inferencia “construido dentro" de él.2 En este último caso, el almacenaje sería ampl am plia iam ment ente oc ocu upad pado co con n def definic inicio ione ness y pro proposi posici cion ones es.. Las proposiciones tendrían varios tipos de status, tales como hechos bien esttable es ableci cido dos, s, conje onjetu turras as,, teo teorem ema as matem atemát átic ico os pro rob bado ados, declaraciones hechas por una autoridad, y expresiones que tengan la forma lógica de una proposición pero no un valor de creencia. Ciertas proposiciones pueden ser descritas como “imperativas”. La máquina debi debier era a se serr co cons nstr trui uida da de tal tal ma mane nera ra que que tan tan pron pronto to co como mo una una proposición imperativa sea clasificada como “bien establecida”, la acción acción apropi apropiada ada se produc produce e inmedi inmediata atamen mente. te. Para Para ilustr ilustrar ar esto, esto, supongamos que el profesor le dice a una máquina “haz tu tarea ahora”. Esto podría hacer que “Profesor dice ‘haz tu tarea ahora’” sea incluida entre los hechos bien establecidos. Otro hecho como este podría ser “todo lo que dice el profesor es verdad”. Al combinar éstos dos se podría llegar eventualmente a que la imperativa “haz tu tarea ahora” sea incluida entre los hechos bien establecidos, y esto, dada la construcción de la máquina, implicará que la tarea comienza a ser real realiz izad ada; a; pero pero el efec efecto to es muy muy insa insati tisf sfac acto tori rio. o. El proc proces eso o de inferencia usado por la máquina no necesita satisfacer a los lógicos más exactos. Podría no existir una jerarquía de tipos, por ejemplo. Pero esto no significa que ciertos tipos de falacias ocurrirán, tal como noso nosotr tros os podr podría íamo moss ca caer er ce cerc rca a de un ac acan anti tila lado do sin sin prot protec ecci ción ón.. Imperativas sutiles (expresadas dentro del sistema, no que formen parte de las reglas del sistema) tales como “no use una clase a
menos que sea una subclase de otra que ha sido mencionada por el profesor” pueden tener un efecto similar a “no acercarse al borde”. Los imperativos que pueden ser obedecidos por una máquina que no tenga extremidades están destinados a tener un carácter más bien intelectual, como en el ejemplo (hacer la tarea) dado recién. Las imperativas que serán importantes son aquéllas que regulen el orden en el cual las reglas reglas del sistema lógico utilizado utilizado sean aplicadas. aplicadas. Para cada etapa en la que se usa un sistema lógico, existe un gran número de pasos alternativos, y cualquiera de éstos se puede aplicar, siempre y cuando se obedezcan las reglas del sistema lógico. Estas elecciones hacen la diferencia entre un razonador tonto y uno brillante, pero no la diferencia entre uno que mienta y otro que no. Las proposiciones que que llev lleven en a las las impe impera rati tiva vass de es estte tipo tipo podr podría ían n se serr “c “cua uand ndo o Sócrates sea mencionado, use el silogismo de Bárbara” o “si un método demuestra ser más rápido que otro, no utilice el lento”. A algunos de éstos se les podría “otorgar una autoridad”, pero otros podr podría ían n se serr prod produc ucid idos os por por la prop propia ia má máqu quin ina, a, a trav través és de una una deducción científica. La idea de una máquina que aprende podría parecer paradójica para ciertos lectores. ¿Cómo pueden las reglas de funcionamiento de una máquina cambiar? Éstas debieran describir completamente cómo la má máqu quin ina a reac reacci cion onar ará á sin sin impo import rtar ar cuál cuál se sea a su hist histor oria ia,, o los los cambios cambios por los que tuvo que pasar. Las reglas reglas son variables-co variables-con-eln-eltiempo. Esto es muy cierto. La explicación de la paradoja es que las reglas que pueden ser cambiadas en el proceso de aprendizaje son de un tipo menos pretencioso, y sólo poseen una validez efímera. El lector puede hacer un paralelo con la constitución de los Estados Unidos. Una característica importante de una máquina que aprende es que su profesor será con bastante frecuencia muy ignorante sobre qué es lo que ocurre dentro de ella, aunque aún así podría ser capaz de predecir la conducta de su pupilo, hasta cierto punto. Esto debiera aplicarse aplicarse con mayor mayor fuerza fuerza a este último último tipo de educación educación de una máquina, el que se produce con un niño-máquina con un diseño (o programa) bien probado. Esto se encuentra en directo contraste con un proc proced edim imie ient nto o norm normal al al util utiliz izar ar una una má máqu quin ina a para para que que haga haga computaciones: en ese caso, el objetivo es tener una imagen mental clara del estado de la máquina en cada momento de la computación. Este objetivo se puede lograr solamente con dificultad. La visión de que “la máquina solamente puede hacer lo que sepamos ordenarle que haga”3, se vuelve extraña de cara a esto. La mayoría de los programas que podamos otorgarle a una máquina resultarán en que ésta haga algo que no tiene sentido para nosotros, o lo consideraríamos como comportamiento azaroso. El comportamiento azaroso consiste presumiblemente es una desviación de la conducta
completamente disciplinada involucrada en la computación, pero en realidad refiere más bien a otro, que no genera conductas azarosas, o secuen sec uencia ciass repeti repetitiv tivas as sin sentid sentido. o. Otro Otro res result ultado ado import important ante e de preparar a nuestra máquina para su parte en el juego de la imitación a trav través és de un proc proces eso o de ense enseña ñanz nza a y apre aprend ndiz izaj aje e es que que la “falibilidad humana” probablemente se acepta de manera natural, es decir, sin un adiestramiento especial. (El lector debiera compaginar esto con el punto de vista en la página 43.) Los procesos que son aprendidos no producen una certeza de resultado del cien por ciento; si así fuera, no podrían ser desaprendidos. Sería aconsejable incluir un elemento aleatorio en una máquina que apre aprend nde e (ver (ver pági página na 34). 34). Un ele eleme ment nto o alea aleato tori rio o es bast bastan ante te útil útil cuando buscamos la solución a un problema. Suponga, por ejemplo, que quisiéramos encontrar un número entre 50 y 200 el cual es igual al cuadrado de la suma de sus dígitos; podríamos empezar con 51 y luego tratar con 52 y continuar hasta que encontremos un número que funcione. Como alternativa, podríamos elegir números al azar hasta que encontremos uno que sirva. Este método tiene la ventaja de que que es inne innece cesa sari rio o ma mant nten ener er regi regist stro ro del del valo valorr que que ha sido sido probado, pero la desventaja de que se podría intentar con el mismo número dos veces; pero eso no es importante si es que hay varias soluciones. El método más sistemático tiene la desventaja de que puede haber un enorme bloque sin soluciones en la región que se inve invest stig iga a prim primer ero. o. Ahor Ahora a es el mome moment nto o en que que el proc proces eso o de aprendizaje podría ser considerado como la búsqueda de una forma de comportamiento que satisfaga al profesor (o algún otro criterio). Dado Dado que que prob probab able leme ment nte e haya haya un gran gran núme número ro de so solu luci cion ones es satisfactorias, el método aleatorio parece ser mejor que el método sistemático. Se debe resaltar que este último es el que se usa en el proceso análogo de evolución, ya que el método sistemático no es posi posib ble. le. ¿Có Cómo mo se podr podría ía mant antener ener regis egistr tro o de las las disti istin ntas tas combinaciones genéticas que se han probado, de manera de evitar realizarlas de nuevo? Podríamos esperar que las máquinas eventualmente compitan con los hombr hombres es en todos todos los campos campos purame puramente nte intele intelectu ctuale ales. s. Pero, Pero, ¿cuáles son los mejores para comenzar? Incluso eso es una decisión difícil. Mucha gente cree que una actividad muy abstracta, como jugar ajedrez, sería lo mejor. También se puede sostener que lo mejor es proveer a la máquina con los mejores órganos sensoriales que el dinero pueda comprar y enseñarle a comprender y hablar inglés. Este proceso podría seguir la enseñanza normal de un niño. Las cosas podrían ser apu apuntadas y nombradas as,, y así sucesivamente. Nuevamente, no sé cuál sea la respuesta correcta, pero creo que ambas aproximaciones debieran intentarse.
Sólo podemos ver una corta distancia delante de nosotros, pero podemos muchísimo de lo que se necesita hacer.
Notas
1 Posi Po sibl blem emen ente te es esta ta visi visión ón se sea a her herét étic ica. a. Sant Santo o Tom Tomás ás de Aqui Aquino no (Summa Theologica, citado en Russell 1945, página 458) establece que Dios no puede hacer que un hombre no tenga alma. Pero ésta podría no ser una restricción de Sus poderes, sino sólo el resultado del hecho que las almas del los hombres son inmortales, y por lo tanto, indestructibles. 2 O más más bien bien “cons “constr trui uido do dent dentro ro”, ”, dado dado que que nuest nuestro ro niño niño-máquina será programado en un computador digital. Pero el sistema lógico no tendrá que ser aprendido. 3 Compare la declaración de Lady Lovelace (página 46), la cual no contiene la palabra “solamente”.