O futuro contínuo e a Caixa de Pandora da IA

O futuro contínuo e a Caixa de Pandora da IA

Já leu

Publicado no site do Outras Palavras*

Estamos todos imersos nesse momento histórico. Tanto aqueles que pesquisam e desenvolvem as novas tecnologias de informação, quanto os que participam em toda a cadeia de produção e gestão destas, até a chegada ao usuário no sistema de informação, ou simplesmente no ambiente social comum. No meio acadêmico, observamos também uma gama variável de interesse nessa virada tecnológica; desde a reflexão mais básica, dos fundamentos teóricos de uma nova epistemologia (Floridi, 2011) – que alcançará até as raias extremas da questão cibernética, com a IA Geral (Bostrom, 2011) e o transhumanismo (Kurzweil, 2005) – passando pela ampla discussão do impacto político-econômico e as atuais questões de regramento legal e ético, chegando aos que já assumem orientar-se no ordenamento desse futuro.

O que proponho observar é que toda essa ‘ecologia’ (cosmologia?) atual está envolta permanentemente, com uma intensidade muito marcante, que quase se destaca por si, na expectativa permanente do futuro. O zeitgeist que permeia o nosso ponto de observação da realidade factual, principalmente quando abordamos as tecnologias de informação e de IA seria o sentimento onipresente de futuro.

Assim, em toda reflexão epistemológica, no cerne da expectativa metodológica da pesquisa, em cada planejamento de processo de gestão, no escopo das discussões de regulamentação legal e ética para a aplicação prática das novas tecnologias1, vai se manifestar a dificuldade em capturar o ritmo acelerado do avanço tecnológico-informacional. Este ritmo que marca o desenvolvimento exponencial das capacidades computacionais está sendo espelhado em uma sensação abstrata de corrida pela compreensão de algo que ainda não temos. Uma promessa empírica, ainda de limites indefinidos, por conseguinte com alguma semelhança ao conceito epistêmico de infinito. Essa imprevisibilidade do futuro vem no entanto amparada na perspectiva dos olhos da ciência2.

Chama-nos a atenção a referência quase explícita a este momento, que fez o escritor de ficção norte-americano William Gibson por volta ainda da virada do milênio, quando vaticinou que “O futuro já está aqui, só não está distribuído de maneira muito uniforme” (Chatterton; Newmarch, 2017) Há de se questionar se sua sentença pressupõe apenas uma crítica de caráter político à iniquidade social no acesso aos bens tecnológicos e avanços que o futuro já trouxe para uma parte da população. Mas há espaço para uma interpretação mais sutil, onde a sensação do que será o futuro já esteja presente na compreensão e sensibilidade de alguns, e mantenha a grande maioria na latência virtual de entender o que pode acontecer. No fundo tratamos de um sentimento de futuro que se impõe e afeta a todos.

Para uma adequada reflexão de como estamos sendo afetados pela expectativa dessas tecnologias que se apresentam, o pensamento de Spinoza, em sua filosofia dos afetos, nos parece a referência mais ajustada nesse momento. Spinoza esclarece que somos afetados por coisas do passado ou do futuro da mesma forma que podemos ser afetados pelas coisas com que vivemos no presente; em ambos os casos, as imagens também podem nos levar ao sentimento de alegria ou tristeza (Parte 3 – Proposição 18)3. Naturalmente, tendemos a manter o sentimento de que esta coisa passada ou futura está no presente, mesmo que ela ainda não exista. Assim, inicialmente poderíamos interpretar que a expectativa de novas tecnologias que ainda estão por surgir nos afetam como se já existissem no presente.

Nessa expectativa, podemos reagir com esperança de que nos beneficiarão, sentindo assim o que ele denomina uma alegria instável; ou de outra forma podemos ter medo de que nos prejudiquem, com o que reagiremos com uma tristeza também instável. Em ambos os casos, o caráter instável do sentimento se dá porque nada ainda se concretizou. (Parte 3 – Proposição 18 – Escólio 2)4. É com esse modelo que temos reagido com expectativa às coisas futuras porque a situamos no nosso tempo presente.

Esse poder de pensar coisas do futuro, ele também afirma, está relacionado à nossa imaginação e esclarece que podemos assim imaginar essas coisas futuras, mas sempre de forma contingente (Parte 2 – Proposição 44 – Corolário 1)5. Não sendo uma necessidade sua ocorrência, essa sensação permanece e mantêm a nossa expectativa; com a incerteza de concretização, enquanto vamos tratando de considerar todas as possibilidades, sejam aquelas que nos atemorizam, ou as que nos estimulam esperançosamente.

O fato a ressaltar é que ao nos afetarmos de forma contínua quando experimentamos muitas coisas como expectativa, esses afetos não são tão estáveis e nos deixam inseguros e indecisos; e esta é a situação que observamos no nosso referido momento histórico, em que tratamos das novas tecnologias, com a possibilidade de realização futura. A sobreposição frequente e exposição à multiplicidade de objetos imaginados futuros nos traz a permanência instável de sensação de contingência, que não mais nos alinha no presente, mas sim “a imagem ligada a um tempo futuro” (Parte 3 – Proposição 18 – Demonstração e Escólio 1)6

Ao acompanhar os fatos que se instalaram no cenário de uso social das novas tecnologias na última década, com a chegada principalmente dos modelos de IA, fomos capturados para a mesma velocidade da evolução na qual caminha o mundo computacional. Uma velocidade que migrou do mundo externo das máquinas e foi internalizada pela tecnologia informacional (Berardi, 2019, p.16). Nesse sentido, sabendo que somos moldados pelas tecnologias que criamos e com as quais lidamos, a dimensão colossal e em contínua expansão das tecnologias de IA e a Big Data extrapolam qualquer possibilidade de acompanhamento pelas capacidades humanas. Então, essa pode também ser uma interpretação para o que pensava Gibson, de um futuro que já está aqui, embora não seja uniformemente distribuído.

O futuro contínuo – por fim, resulta que nos sentimos todos ultrapassados; o nosso presente está não só em permanente expectativa do que virá, do que ainda não se concretizou, da promessa ou aposta tecnológica máxima, inexplorada, ainda irrealizada, no tempo inalcançável do futuro, como está sempre superado pelo que ainda nem demos conta de que já está sendo realizado… somos habitantes do passado no nosso tempo presente, que é pura presença do futuro, de forma contínua.

Um futuro que desaponta em sua expectativa, pois não se concretiza nunca por completo, seria uma chave para compreender o que frustrou o pensamento do mundo moderno? Franco Berardi nos traça uma panorâmica das propostas futuristas que preencheram o século XX; desde o Manifesto Futurista, de Filippo Tommaso Marinetti, que enfatiza os valores estéticos e políticos da máquina, da velocidade, da violência e da guerra de uma Itália em construção (Berardi, 2019). Do movimento futurista italiano, ao russo e ao japonês, Berardi desemboca no século XXI, onde estamos “rodeados e penetrados por máquinas internas, máquinas infobiotécnicas, cujo funcionamento e cujos efeitos sobre a evolução cultural da espécie humana não somos ainda capazes de avaliar plenamente” (Berardi, 2019, p.14).

Esse pensador da sensibilidade nos aponta esse momento de expectativa como futurabilidade. Uma pluralidade de futuros possíveis inscritos num presente preenchido pela utopia virtual que caracterizaria a depressão contemporânea – tanto psíquica quanto econômica – resultado da “consciência de que nenhuma projeção do futuro é verdadeira” (Berardi, 2019, p.143). Apesar do tom, ele fecha o discurso do seu texto lançando, com esperança (ou militância?), um ‘Manifesto PósFuturista’, onde convoca a ironia, o perigo do amor, a autonomia, a lentidão veloz(!) para, ao final, cantar uma infinidade presente que não necessite mais do futuro (Berardi, 2019, p.138).

O que aparece como ponto em comum em todas essas perspectivas de futuro é a sua própria presença contínua, no sentimento marcado da permanente expectativa. Estamos desta forma pensando com medo ou com esperança? O que podemos fazer da nossa expectativa?

A caixa de Pandora da IA

Este mito muito antigo, tratado por Hesíodo em suas duas obras – Os trabalhos e os dias e Teogonia – é uma referência simbólica quase insuperável do processo de fundação da humanidade para a cultura ocidental. Considerado o primeiro poeta da Grécia Arcaica que canta em primeira pessoa, Hesíodo nos descreve com mais detalhes no primeiro poema o mito de Prometeu, no que se refere ao aspecto que nos inspira a pensar na caixa de Pandora. Comenta-se mais o seu segundo poema, porque ali é que se dá a aventura de Prometeu roubando o fogo celeste e trazendo o dom divino aos homens; no entanto, é nos ‘Erga’ que podemos ter uma melhor interpretação da herança que Zeus concede aos seres mortais (Hesíodo, 1996). Com a caixa ou jarra (píthos) de Pandora instaura-se definitivamente a humanidade, pois dali sairão todas as habilidades que terão os homens; a potência de tudo o que virar a ser, e caracteristicamente todos os dons comparáveis às capacidades dos deuses. Zeus, porém, revoltado com o engodo de Prometeu, que lhe roubou o fogo natural, devolve em retribuição aos homens um fogo artificial, um arremedo técnico. Na caixa estará ainda, com o conjunto dessas habilidades copiadas dos deuses, o trabalho como técnica (Hesíodo, 1996, p.63); carregado da ambiguidade de todo o bem e o mal que darão potência à raça dos homens.

A ambiguidade que demarca o saber e o domínio da técnica instala-se para sempre como uma predição deste destino; e não é a esperança que nos resta no fundo da caixa de Pandora, como normalmente se interpreta numa leitura apaziguadora que destoa do espírito agônico grego. A Élpis, que permanece na caixa depois desta novamente ter sido tampada, tem o sentido muito mais próximo ao da expectativa, da espera (Stiegler, 1996, p.196/197). Mas mantém-se a marca ambígua de uma espera, “temor e esperança a uma só vez, previsão cega, ilusão necessária, bem e mal simultaneamente” (Hesíodo, 1996, p.74). A expectativa que carrega em igual medida o medo e a esperança é a grande marca do tempo futuro.

Nos mesmos moldes do mito inaugural da humanidade, parecemos estar vivenciando o nascer de uma nova geração de habilidades que transformarão o mundo como o conhecemos. A excitação de alguns deuses no Olimpo da ciência contemporânea aparentemente dá como certa a possibilidade de já estarmos assistindo o que será essa nova potência manifesta dos dados na realidade virtual. Desde as previsões de um marco histórico de singularidade (Kurzweil, 2005), até as declaradas demarcações de uma nova era, como o período de Hiper-história, no conceito de Floridi (Floridi, 2014). A propulsão transformadora da revolução informacional a partir da chegada das tecnologias de IA nos apresenta o cenário deste futuro, onde cogitamos pela primeira vez na história a presença de alguma coisa a que se possa definir como pós-humano.

Assim, como se poderia esperar, uma forte ambiguidade se revela nas possibilidades dessa promissora ampliação do conhecimento e o discurso que se apresenta traz muitas vezes a marca de uma disputa entre o bem e o mal que se confunde com o entendimento do próprio objeto tecnológico. Em parte, porque diferentemente de outras tecnologias de grande potencial transformador nas descobertas dos últimos séculos, como o domínio da eletricidade, da energia nuclear e da engenharia biomolecular, a informação é a única que se comporta como insumo tecnológico, mas também como instrumento ideológico, o que aumenta consideravelmente o seu poder de controle sobre a sociedade.

Por dentro desse debate, está a tentativa de fugir do maniqueísmo de polaridades de uma postura tecnofóbica ou tecnofílica relacionada às tecnologias de IA, que pretende um posicionamento neutro, em geral voltado às características puramente objetivas do mecanismo do objeto técnico. O que nos parece uma posição que não enfrenta criticamente o problema. Ora, diante da grande expectativa atual, tornou-se muito comum argumentar que o desenvolvimento tecnológico sempre produziu ondas de rejeição conservadoras ao longo da história, que exacerbam o seu risco frente ao futuro da humanidade, e que isso nunca se consumou, mantendo o desenvolvimento tecnocientífico no seu curso de progresso contínuo. Obviamente discordamos, pois nos parece haver duas fortes objeções a esse argumento.

A primeira é que, do ponto da realidade factual, a história se esgota no presente em que estamos vivendo e não tem essa determinação como uma lei natural. Essa interpretação somente é possível pelo evidente viés de ‘discurso dos vencedores’ que sustenta esta tese, e que não dá conta da extinção de povos, culturas e… outras histórias; fato que pode ser claramente exemplificado no enfrentamento basicamente tecnológico, por exemplo, entre europeus e ameríndios nos últimos séculos. Sempre um massacre, que se sucedeu entre outros tantos, tem sido o exemplo da força das tecnologias para dar fim a muitas histórias. Notadamente, as tecnologias de IA tem demonstrado já o seu potencial para o extermínio dos mais fracos no refino das guerras. Não podemos desprezar o uso dos drones e reconhecimento facial na matança de civis no Iraque e Afeganistão (Khan, 2021), nem as sofisticadas engenharias de vigilância, seleção e extermínio no atual genocídio de Gaza ( Abraão, 2024).

A outra objeção é que se não reconhecermos os grandes riscos de nossas tecnologias, devemos ignorar totalmente o nosso temor de extinção e autodestruição pelo arsenal nuclear, que ainda assombra as bases da geopolítica mundial; os riscos de criação de quimeras incontroláveis, pelo desenvolvimento de engenharia genética, que motivaram o conferência de Asilomar (Mukherjee, 2018); e mais evidente ainda, esquecer todo o debate atual do antropoceno e do desastre climático, uma consequência direta da escalada tecnológica industrial (Gabriel, 2018).

Logo, devemos explorar esta expectativa do fundo da ‘caixa da IA’ projetando as possibilidades que se apresentam, sabendo que não estamos mais transformando tecnologicamente uma força da natureza, como a hidráulica; ou desenvolvendo braços mecânicos, que indistintamente funcionam da mesma forma em tantos animais. Nem aprendendo a usufruir de outras propriedades físicas como a eletricidade, ou a energia nuclear, que passamos a dominar com desejável segurança. Nem mesmo a matéria biológica, onde descemos aos dados básicos da bioquímica que codifica as formas de seres vivos. Mas lidamos agora propriamente com algo que nos caracteriza como humanos, que situa nosso lugar ontológico em qualquer concepção de universo que possamos considerar do momento sócio-histórico que vivemos. Estamos projetando na nossa criação tecnológica a emulação da nossa capacidade cognitiva, das nossas formas de razão e até mesmo do afeto. Desde o início da caminhada do pensamento ocidental, desde os antigos gregos as relações entre o humano e suas tecnologias nunca foram a ponto tão extremos antes, onde aquilo que propriamente nos caracteriza, a capacidade cognitiva, é apresentado em objetos técnicos que “se tornam independentes porque são tão perigosamente semelhantes a nós” (Malabou, 2019).

Qual marca nos deixará essa nova onda tecnológica? Diante da concepção de que somos todos moldados pelas tecnologias que criamos e pela nossa relação com a técnica, o que esperar do processo evolutivo humano com objetos que simulam o sujeito, substituem os atos cognitivos e assumem o controle da realidade? Qual será a herança epifilogenética para a humanidade a partir das tecnologias de IA, onde a hegemonia do cálculo ameaça a reflexão e o pensar (Stiegler, 2019)? Qual o risco de estarmos caminhando para uma redução de nossas capacidades estéticas (Berardi, 2019)?

Assumindo que todo trabalho tem algum grau de protecidade, as propostas do futuro já estão abertas para o caminho de práticas com participação cognitiva da IA. Como esperado, diante das potencialidades deste novo universo tecnológico, um amplo espectro de abordagens para exploração e utilização de tecnologias de IA começam a delinear e traçar os caminhos a se seguir. Nas práticas assistenciais intersubjetivas, há correntes que prescrevem uma automação condicional, subordinada à decisão humana, escalonada em níveis de responsabilidade (Topol, 2019). Uma abordagem que, no entanto, não garante uma precisa demarcação das fronteiras dos sujeitos, pois com a chegada dos programas de Large Language Model o conflito ético se impõe, pela imprecisão nos limites da responsabilidade cognitiva (Lee, Goldberg, Kohane, 2023).

Outro grande desafio é o avassalador desenvolvimento de dispositivos – sejam os wearables ou cognitive devices, chatboots, robots. A partir do imenso interesse da indústria de insumos tecnológicos na produção de novidades para o mercado de consumo, o ímpeto científico não tem definido barreiras muito claras para seus projetos de pesquisas. Assim, tão audaciosos quanto foram os trabalhos com engenharia genética no século passado, ameaçando o controle sobre os limites do mundo biológico, as pesquisas com simulados protéticos biológicos como o Human Brain Project e o American BRAIN Initiative abrem as portas para um controle sem precedente sobre a cognição e sua automação (Malabou, 2019). Esse poderá ser o novo pensar cibernético? Como lidar com a dissolução, ou indefinição ontológica do humano e seus reflexos no seu autoconhecimento? Até onde a protecidade e extensão tecnológica, no modelo previsto por McLuhan, poderá nos levar, se já apontamos para modelos de fusão e simbiose (Do, Maes, Mueller, Semertzidis, 2023)?

Aberta a Caixa de Pandora da IA, podemos já ter contato com alguns dos futuros possíveis, pensados em realidade no nosso tempo presente. É possível expandir para um polo, na defesa ampliada de “todas as formas de senciências, incluindo humanos, animais não humanos e quaisquer intelectos artificiais futuros, formas de vida modificadas ou outras inteligências às quais o avanço tecnológico e científico possa dar origem” (Baily et al, 2009, s/p). Aqui, teremos a “oportunidade de explorar os domínios transumanos e pós-humanos” […] “na defesa de que a natureza humana pode ser modificada” [e haja] “garantias para a escolha individual acerca de tecnologias de melhoramento” (Bostrom, 2005, p.13). Para esse futuro, já está presente a consideração de que “a ciência e a tecnologia estão agora mudando radicalmente os seres humanos e podem também criar futuras formas de vida sapientes e sencientes avançadas, os transumanistas estabelecem esta Declaração de Direitos Transumanistas para ajudar a orientar e promulgar políticas sensatas na busca pela vida, liberdade, segurança pessoal e felicidade” (U.S. Transhumanist Party, 2018, s/p.). Essa corrente manifesta a epítome de desejos de superação humana com o auxílio de tecnologias inovadoras, seja lá o que podem lhe significar essa superação humana. É a linguagem da eficiência produtiva da era industrial que os estimula. Mais anos de vida, mais capacidades produtivas, mais qualidades cognitivas; é já o desejo de correr atrás das potencialidades computacionais. Uma disputa que já se inicia perdida. Em todo o manifesto, que se tornou uma forte corrente política, perpassa o direito individual a essa superação baseada na tecnologia encarnada, assume uma versão cibernética do Übermensch e deixa à governança das organizações estatais o cuidado com os riscos e com a coletividade, em alguns de seus poucos artigos.

Mas podemos buscar na Caixa o florescer de abordagens no extremo oposto, que se voltam para as tensões do capitalismo digital, o necropoder e a descolonização do pensamento acadêmico no estudo da informação, da automação e da inteligência artificial. As perguntas que dão os fundamentos para se construir uma ética digital seriam: “O que é uma boa sociedade? O que precisa ser feito para estabelecermos uma boa sociedade? Quais foram os principais fatores que impediram o estabelecimento de uma boa sociedade? O que devemos fazer para promover uma boa sociedade?” (Fuchs, 2022, p.43). Assim, nos parece que começamos pelo interesse que se pretende por sociedade humana; a tecnologia virá na mira desse horizonte. E não precisamos nos ancorar em um arcabouço histórico da natureza humana, o que pode nos deixar sem consenso e nos tirar o tapete. É preciso assumir o nosso momento e perceber que “a desumanidade é o problema central das sociedades digitais contemporâneas” (Fuchs, 2022, p.45). Devemos nos voltar para a grande expectativa de possibilidade e buscar um avanço definitivo sobre a dívida histórica de fixar valores universais (Gabriel, 2022).

Nesse contexto, é possível enfrentar a tarefa de construção de modelos que partam desses princípios e incluam no seu design uma IA centrada no ser humano, que ofereça “uma visão de tecnologias futuras que valorize os direitos humanos, a justiça e a dignidade” (Shneiderman, 2022, p.21)Buscar um alto nível de controle humano para um alto nível de automação estaria desde o início nas metas do design para o futuro; buscando sempre “distinguir entre pessoas e computadores, o que aumenta o respeito pela responsabilidade humana e orienta as pessoas nas maneiras apropriadas de usar o poder do computador” (Shneiderman, 2022, p.45)Nota-se que, nesse projeto, abre-se uma perspectiva de que “os computadores desencadeiem novos níveis de criatividade humana, mas não substituam a criatividade humana” (Shneiderman, 2022, p.77).

Começa a se desenhar uma corrente ética para a Era Digital, na composição de uma proposta política onde o homem e seus valores estão novamente no centro da atenção. Como uma tentativa de vasculhar na expectativa da Caixa de Pandora da IA aquilo que desejamos: uma demarcação antropológica que defina que “não somos robôs, nem inteligência(s) artificial(is), e assim por diante, e que não devemos ser tratados como tal”; que nós é que “devemos manter o controle sobre a tecnologia digital”; e que essa tecnologia “deve estar alinhada com os objetivos e valores humanos, […] uma ética centrada no ser humano”. A proposta do Humanismo Digital assumidamente tem uma “dimensão política que não nos deveria surpreender, uma vez que as tecnologias digitais, como todas as tecnologias, já são políticas: não são apenas utilizadas para fins políticos, mas também têm consequências políticas e tomam forma dentro de constelações políticas e sociais específicas” (Coeckelbergh, 2024). Este autor já nos advertia que responder a questões éticas e políticas sobre como viver, como lidar com nosso ambiente e como nos relacionarmos melhor com seres vivos não humanos “requer mais do que inteligência humana abstrata (por exemplo, argumentos, teorias, modelos) ou reconhecimento de padrões de IA” (Coeckelbergh, 2020).

Este humano presente deve esperar para o futuro o direito de manter-se limitado em suas capacidades, imperfeito em seus comportamentos, inseguro em suas relações, ter necessidades e depender da nossa comunidade – o simples e intrasferível direito de pertencer a humanidade (Vianna Sobrinho, in press) . O propósito de esperar pela singularidade num processo abstrato da história nos mantém num futuro incerto e permanente; enquanto a busca de sentido na expectativa que nos encontramos pode ser uma melhor proposta para seguir no que temos nós de singular, nas nossas vivências individuais e coletivas, e na legítima vontade de qualificar a humanidade como detentora de valor em si. 

 

Publicado originalmente no site Outras Palvras, em 20/08/2024, com o título: A IA e a beleza da imperfeição humana. 

Referências 

Abraão, Y. (2024). As digitais das Big Techs no genocídio em Gaza. OutrasPalavras. Acesso em 12/08/2024. https://outraspalavras.net/geopoliticaeguerra/as-digitais-das-big-techs-no-genocidio-em-gaza/

Baily, D. et al. (2009) Transhumanist Declaration. Disponível em: <https://humanityplus.org/philosophy/transhumanist-declaration/>. Acesso em: 10 jul. 2024.

Bazzan, A; Tavares, A; Pereira, A; Jung, C; Scharcanski, J; Carbonera, J; Lamb, L; Recamonde-Mendoza, M; da Silveira, T; Moreira, V (2023). “A Nova Eletricidade”: Aplicações, Riscos e Tendências da IA Moderna. 10.48550/arXiv.2310.18324

Berardi, F. (2019) Depois do futuro. São Paulo: Ubu Editora.

Bostrom, N. (2005). Transhumanist Values. Philosophy Documentation Center, Disponível em: https://www.nickbostrom.com/ethics/values.pdf . Acesso em: 15 jul. 2024.

Bostrom, N; Yudkowsky, E. (2011) The ethics of artificial intelligence. in Ramsey, W; Frankish, K. Cambridge Handbook of Artificial Intelligence. Cambridge University Press.

Chatterton, T; Newmarch, G. (2017) The future is already here: it’s just not very evenly distributed. Interactions 24, (2) pg. 42-45. https://doi.org/10.1145/3041215

Coeckelbergh, M. (2020) AI Ethics. Cambridge, MA: The MIT Press.

Coeckelbergh, M. (2024) What is digital humanism? A conceptual analysis and an argument for a more critical and political digital (post)humanism. Journal of Responsible Technology 17. 100073 – https://doi.org/10.1016/j.jrt.2023.100073

Do, EYL; Maes, P; Mueller, FF; Semertzidis, N. (2023) Designing the Human-Machine Symbiosis. Report from Dagstuhl Seminar, Vol. 13, Issue 5, pp. 136–164

Floridi, L. (2011) The Philosophy of Information. UK, Oxford University Press.

Floridi, L. (2014) The Fourth Revolution. How the infosphere is reshaping human reality.UK, Oxford University Press.

Fuchs, C (2022). Digital Humanism. A Philosophy for 21st Century Digital Society. UK: Emerald Publishing.

Gabriel, M. (2021). O sentido de pensar. A filosofia desafia a inteligência artificial. Rio de Janeiro: Vozes.

Gabriel, M. (2022). Moral Progress in Dark Times: Universal Values for the 21st Century. 1st Edition, Kindle Edition.

Hesíodo. (1996) Os trabalhos e os dias. Trad. Lafer, MCN. São Paulo: Iluminuras.

Khan, A. (2021). Hidden Pentagon records reveal patterns of failure in deadly airstrikes. Disponível em:Hidden Pentagon Records Reveal Patterns of Failure in Deadly Airstrikes – The New York Times (nytimes.com)Acesso em 29 jul.2024

Kurzweil, R. (2005) The singularity is near: When humans transcend biology. New York: Viking.

Lee, P; Goldberg, C; Kohane, I. (2023) The AI Revolution in Medicine: GPT-4 and Beyond. USA. Pearson.

Malabou, C. (2019) Morphing Intelligence. From Iq Measurement To Artificial Brains. New York: Columbia University Press.

Mukherjee, S. (2018). O gene, uma história íntima. São Paulo: Cia das Letras.

Shneiderman, B. (2022). Human-centered AI. New York: Oxford University Press.

Spinoza, B. (2009). Ética. [trad. Tomaz Tadeu]. Belo Horizonte: Autêntica Editora.

Stiegler, B. (1996) Technics and Time, 1: The Fault of Epimetheus. California: Stanford University Press.

Stiegler, B. (2019) The age of disruption: technology and madness in computational capitalism. UK: Polity Press.

Topol, E. (2019) High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine. Vol (44) 25. Jan. pg 44-56.

U.S. Transhumanist Party. (2018) Transhumanist Bill of Rights (version 3.0). Disponível em: https://transhumanist-party.org/tbr-3/. Acesso em: 28 jul. 2024.

UN Department of Economic and Social Affairs. (2018). World economic and social survey 2018: frontier technologies for sustainable development. New York, NY: United Nations.

Vianna Sobrinho, L. (in press – 2024) Artificial intelligence and human rights nowin Vianna Sobrinho, L; Modolo, L; Santana, MS; Moreno, GM; Borges, FT; Santos, WP. Artificial Intelligence and Bioethics: Perspectives. USA: Taylor & Francis Group.

Notas:

1 O conceito de Tecnologias de Fronteira remete à característica necessidade de capturar o ritmo rápido de seu desenvolvimento, explorando a difícil tarefa de normatização política e legal, frente aos seus efeitos potenciais em larga escala sobre as economias e sociedades. (UN Department of Economic and Social Affairs, 2018.)

2 Dentro de suas concepções de filosofia da ciência, Niels Bohr teria afirmado que “não há algo mais difícil do que prever o futuro em ciência” (Bazzan e cols, 2023)

3Spinoza, B. Ética – pg.111

4Idem – pg. 111-112

5Idem – pg. 84

6Idem – pg.111