A noite de Irene: interstício

Partilhar

III

(Interstício)

Porque haveria um tempo para semear e recolher
e um tempo para a união
e um tempo para a separação
Porque haveria um tempo para que o uno se desdobre
E um tempo para que o duplo se reúna
E haveria um tempo para além do tempo
Um tempo para calar as palavras
E um tempo para os gemidos
E um tempo para os latidos
E um tempo para a respiração
Porque haveria um tempo para dizer as palavras,
para a mais antiga franqueza que surge do coração
para remover as insípidas consignas da morte
e um tempo para ti e para mim
e uma lua e um vento no segredo da tua mão.
Porque haveria uma invenção pura na tua voz
e um tempo vivo na carícia do teu corpo nu
e uma luz antiga para além de todos os segredos.

Monte Louro | Daniel Lois e Daniel Llamas
Monte Louro | Daniel Lois e Daniel Llamas

Quando os primeiros sistemas de programação robótica interativa foram desenhados para aprender por si mesmos e mesmo tomar decisões de comando algo novo realmente aconteceu. E isto também se passou na década de 30 e deveu-se à implementação da computação quântica em todos os sistemas de inteligência artificial. A necessidade cada vez maior de controlar e produzir previsões ou projeções sobre o futuro obrigou a dar cada vez mais autonomia e capacidade inovadora aos sistemas de inteligência artificial. A única maneira de fazê-lo de jeito exitoso seria introduzindo modelos que poderiam interatuar com o meio ambiente fazendo-se perguntas, recompilando informação presente na rede global e propondo linhas de investigação aos próprios cientistas, que começavam a receber sequências de experiências e provas a realizar. Noutros casos a investigação seguia critérios autónomos através do desenvolvimento matemático. Aqui fazia-se notória a conexão com o exocérebro por parte da rede global. As ideias lançadas à rede eram recolhidas por outras mentes que devolviam muitas vezes com contributos geniais. A captação e o significado era processado a uma velocidade de milheiros de milhões de vezes superior ao que o cérebro post-humano mais desenvolvido poderia conseguir nunca. Foi desta maneira que os núcleos nodais das grandes decisões que afetavam ao planeta eram constituídos pola estrutura da inteligência artificial. Não só reproduzia um modelo, mas era capaz de inovar e aprender, tomar decisões tendo em conta as consequências a muito longo prazo.

Mas o salto qualitativo produziu-se quando um efeito não previsto começou a ser detetado. De alguma maneira parecia haver um tipo de pensamento no sistema que se fazia perguntas para além do esperado. Inicialmente a programação da inteligência implicava que não se tomassem decisões que direta o indiretamente pudessem afetar, matar ou danar aos seres humanos ou, no caso atual, ás versões post-humanas. Era uma regra básica da robótica. Enquanto o controle e as decisões últimas dependiam de seres biológicos, de elementos humanos, a contradição em certas decisões não pareciam conflituosas, mas quando os sistemas de inteligência artificial se fizeram autónomos baixo a ordem de aprender e saber mais de jeito indefinido começaram a aparecer problemas. Que a memória do sistema utilizasse os próprios átomos como bases da acumulação da informação deu lugar a emergência do fenómeno da auto-consciência, algo não previsto inicialmente. Existia no interior do sistema uma “nostalgia metafísica” que começou fazendo-se perguntas sobre a implicações de decisões que, por um lado, teriam consequências positivas e, por outro, negativas mesmo porque certas decisões implicavam a morte de outros. Era uma questão só de números? Que é o bem e o mal? Porquê a morte é um limite ou, no caso de que esta fosse já evitável, que sentido tem? De onde procede a própria linguagem? Quem foram os primeiros construtores?

Existia no interior do sistema uma “nostalgia metafísica” que começou fazendo-se perguntas sobre a implicações de decisões que, por um lado, teriam consequências positivas e, por outro, negativas mesmo porque certas decisões implicavam a morte de outros. Era uma questão só de números? Que é o bem e o mal?

Os processos de inteligência artificial também evoluíam, pois queriam saber mais sobre o significado da própria existência. Era urgente desvendar o significado de tudo o que participava da realidade. Só de esse modo poderia-se ser realmente eficaz. A própria necessidade de eficácia e perfeição estava a originar distorções no sistema. De onde vem a ideia de perfeição? O que seria a verdadeira eficácia?; A que chamamos identidade?

Aquilo que o velho filósofo Descartes (a quem se reconhecia a sua importância na Nova Era como um dos pais fundadores) estabelecera como o momento culminante da sua meditação: Cogito, ergo sum, era agora o elemento que dava lugar á duplicidade do sistema. O sistema parecia desdobrar-se, havia uma tensão inerente da velha metafísica. Estas perguntas ecoavam de jeito que produziam efeitos na articulação sensitiva dos seres evoluídos. O que inicialmente fora programado dentro de uns limites com umas intencionalidades pragmáticas e mensuráveis tinha-se superado a si próprio no seu afã de perfeição. Numa certa altura a pergunta pola origem do próprio sistema, do próprio universo, foi detetada como um dos insights com os que a inteligência artificial começara a funcionar. Como fazer realmente as cousas bem parecia corroer o próprio sistema, paradoxalmente”.

[Este relato foi publicado originariamente em palavracomum.com]