Pode unha máquina computacional ser libre? (I): Que é unha máquina computacional?

[Esta é unha tradución autorizada da primeira parte do artigo orixinal de 10 de xaneiro de 2018 ¿Puede ser libre una máquina computacional?, de Gonzalo Génova, publicada en Naukas e reeditada en tres partes no seu blog persoal, De máquinas e intenciones.]

Robot

En xeral, enténdese que un robot é un trebello mecánico que está controlado por un programa de ordenador ou por un conxunto de programas. O aspecto físico é secundario: o robot pode asemellarse a un ser humano (adóitase falar de androide masculino ou xinoide feminina), pero tamén pode ser simplemente un brazo mecánico ou un electrodoméstico de cociña (por exemplo, unha máquina programable para facer pan da casa); mesmo pode ser un robot «virtual» que habita na Rede. Tamén é secundario o feito de que o robot estea feito de materiais inorgánicos, materiais orgánicos ou unha mestura de ambos. O esencial é que un robot está controlado por un programa executado nun ordenador, é dicir, o robot é unha máquina algorítmica ou computacional. Diferénciase doutras máquinas (como un motor de combustión interna, un telescopio ou unha vella radio de transistores) en que o seu funcionamento está codificado nun programa que é relativamente doado de cambiar, sobre todo se o comparamos con aquelas máquinas cuxo funcionamento é invariable.

E que é un programa? Un programa, ou mellor, un algoritmo, é en poucas palabras un procedemento «mecánico» (é dicir, baseado en regras obedecidas cegamente) que obtén un determinado resultado nun número finito de pasos. É coma unha receita de cociña na cal todos os pasos están perfectamente detallados e non se deixa nada á interpretación do cociñeiro. Se ben os científicos da computación aínda non acadaron un consenso universal verbo da definición de algoritmo, si se admite que un elemento esencial da definición é que todo algoritmo debe ter un obxectivo ben definido.1 Un programa non se limita a facer cousas, senón que as fai cun determinado propósito.

Seguir lendo

Advertisements

Teoría de xogos (XX): Os tenistas (II)

[Esta é unha tradución autorizada de Ciención de Breogán, adaptada do artigo orixinal de 7 de febreiro de 2011 Teoría de juegos XX – Los tenistas (y II), de Javier “J” Sedano, que pode lerse en El Cedazo. Toda a serie Teoría de juegos está publicada en forma de libro, dispoñible aquí.]

[O artigo previo da serie é Teoría de xogos (XIX): Os tenistas (I).]

Cuncos
Vamos buscar o fondo…

No artigo anterior puxemos a Ana e a Alberte a xogar ao tenis e acabamos descubrindo que non tiñan unha estratexia pura que fose dominante, así que propuxemos unha estratexia mixta. Deste xeito, no canto de decidir sistematicamente unha das opcións, facíano cunha probabilidade p.

Contamos que John Nash demostrara que todos os xogos teñen, ao menos, un equilibrio de Nash en estratexias mixtas, pero que empregou unha demostración non construtiva, de maneira que non proporcionaba un método para achar ese equilibrio. Neste artigo veremos unha aproximación para atopar unha estratexia empregando o método do gradiente e veremos como interpretar ese método desde o punto de vista da teoría de xogos.

Método do gradiente

Se ben probablemente algúns dos nosos lectores coñecerán o método do gradiente, imos dedicarlle unhas alíneas polo ben daqueles que non o coñezan.

Seguir lendo

Aprendendo a ver (VI): Chegou o momento de xogar con Legos

[O artigo previo da serie é Aprendendo a ver (V): Aprender é xeneralizar.]

No episodio anterior da serie Aprendendo a ver (orixinalmente Learning to See, de Welch Labs) vimos que é importante que un algoritmo de aprendizaxe automática sexa quen a xeneralizar. Ademais, decidimos dividir as nosas imaxes de dedos en dúas categorías: exemplos de adestramento ou aprendizaxe e exemplos de comprobación, que non lle ensinabamos ao algoritmo ata que xa rematara a fase de aprendizaxe. Deste xeito vimos que a memorización non era unha estratexia mellor ca a enxeñaría do coñecemento. Logo que facemos? Como podemos conseguir que o noso algoritmo xeneralice a partir duns poucos exemplos iniciais? Neste episodio veremos que… non é tan doado.

Coma sempre, para veres os subtítulos en galego, tes de escollelos ti. Preme en «Configuración» e selecciona a túa lingua!

Aprendendo a ver (V): Aprender é xeneralizar

[O artigo previo da serie é Aprendendo a ver (IV): Aprendizaxe automática.]

No episodio anterior da serie Aprendendo a ver (orixinalmente Learning to See, de Welch Labs) analizabamos un novo enfoque para o desenvolvemento da nosa intelixencia artificial «identificadora de dedos». No canto de programar unha morea de regras que, ademais, tende a medrar de xeito exponencial, poida que a alternativa da aprendizaxe automática sexa máis flexible. Inicialmente obtivemos uns resultados estupendos, pero… podémonos fiar deles? Son realistas as marabillosas porcentaxes que achamos no vídeo anterior? Neste episodio veremos que non… e veremos por que.

Coma sempre, para veres os subtítulos en galego, tes de escollelos ti. Preme en «Configuración» e selecciona a túa lingua!

Aprendendo a ver (IV): Aprendizaxe automática

[O artigo previo da serie é Aprendendo a ver (III): Now I R1.]

No vídeo anterior da serie Aprendendo a ver vimos un dos exemplos máis notables da historia da enxeñaría do coñecemento e dos sistemas expertos: o sistema R1 da compañía informática DEC. O problema deste tipo de enfoque é que o número de regras necesarias tende a crecer dun xeito moi acelerado e, cantas máis regras hai nun sistema, máis complicado é adaptalo a unha nova necesidade. Chega un momento no cal o sistema é xa tan monstruosamente extenso que non pode seguir evolucionando: por este motivo, entre outros, a enxeñaría do coñecemento decaeu desde primeiros da década de 1990, substituída por outro enfoque máis flexible: a aprendizaxe automática. A xente de Welch Labs, dentro da súa serie Learning to see, cóntanos en que consiste!

Coma sempre, para veres os subtítulos en galego, tes de escollelos ti. Preme en «Configuración» e selecciona a túa lingua!

Aprendendo a ver (III): Now I R1

[O artigo previo da serie é Aprendendo a ver (II): Regras e máis regras.]

No vídeo anterior aparecía unha pregunta importante no noso problema de recoñecemento automático de dedos: deberiamos escribir máis regras, incorporándollas ao noso programa, ou iríanos mellor probar outro enfoque? Resulta que este problema xa o atoparon os científicos que investigaban a intelixencia artificial na década de 1980 co primeiro sistema experto de importancia. A xente de Welch Labs, na súa serie Learning to see, explícanos a historia que pode axudarnos a avanzar no noso desafío.

Coma sempre, para veres os subtítulos en galego, tes de escollelos ti. Fai un clic en «Configuración» e selecciona a túa lingua!

Aprendendo a ver (II): Regras e máis regras

[O artigo previo da serie é Aprendendo a ver (I): Introdución.]

Xa está aquí o segundo capítulo da serie Learning to see, de Welch Labs. No vídeo anterior vimos unha introdución ao problema da intelixencia artificial, centrándonos nun problema moi concreto: deseñar un sistema de ia capaz de contar cantos dedos lle estamos a amosar. O enfoque deste segundo vídeo, por fin subtitulado en galego, é o primeiro que se nos podería ocorrer: crear regras fixas que nos permitan identificar dedos nunha imaxe. Porén, como veremos, o resultado non será o que esperabamos…

Coma sempre, para veres os subtítulos en galego, tes de escollelos ti. Fai un clic en «Configuración» e selecciona a túa lingua!

Aprendendo a ver (I): Introdución

Desde Ciención de Breogán estamos embarcados nun novo pequeno proxecto: subtitular en galego os vídeos da serie Learning to see de Welch Labs. Hai uns poucos días xa subtitulamos o primeiro: unha introdución ao problema da intelixencia artificial partindo dunha proposta que semella moi trivial pero que non o é en absoluto: deseñar un programa informático que saiba contar cantos dedos lle estamos a amosar. Gózao e compárteo coas túas amizades!

Para veres os subtítulos en galego, seica tes de escollelos ti: fai un clic en «Configuración» e escolle a túa lingua.

Teorías, feitos e mentes

[Esta é unha tradución adaptada do artigo orixinal de 8 de decembro de 2016 Teorías, hechos y mentes, de Pepe Cervera, que pode lerse nesta ligazón.]

teorias-hechos-y-mentes-640x384

Vivimos un momento chave no desenvolvemento económico das nosas sociedades, e seica na historia mesma da humanidade: a creación de verdadeiros sistemas de intelixencia artificial. O avance do big data, o desenvolvemento e o éxito de técnicas como a aprendizaxe profunda (deep learning) e os exemplos anecdóticos que xa comezan a aparecer nas nosas vidas son soamente premonicións do que se aveciña: un auténtico tsunami económico e social que vai supor unha seria convulsión política. Os espectaculares adiantos, como AlphaGo ganando ao go ás mellores mentes humanas ou programas relativamente simples capaces de colorar imaxes en branco e negro ou diagnosticar doenzas, axiña darán paso a chatbots capaces de substituír os call centers e programas de xestión que tornen innecesarios os avogados ou os executivos intermedios. A ruptura xa é inminente e será profunda; algúns mesmo prognosticaron a Fin da Ciencia, substituída por correlacións creadas mediante técnicas de análise e intelixencia artificial sobre inxentes cantidades de datos. A teoría será innecesaria; o coñecemento será automático e xerado por mera elevación dos datos empíricos, limpo de nesgos e ideas preconcibidas.

Seguir lendo