Introdução
A integração de sistemas de inteligência artificial (IA) no ambiente acadêmico tem gerado transformações profundas nas práticas de pesquisa, ensino e produção de conhecimento. Estas transformações não ocorrem sem disputas, negociações e controvérsias que envolvem múltiplos atores, tanto humanos quanto não-humanos. A Teoria Ator-Rede (TAR), desenvolvida por Bruno Latour, Michel Callon e John Law, oferece um arcabouço teórico-metodológico particularmente adequado para analisar estas controvérsias sociotécnicas, pois reconhece a agência distribuída entre humanos e não-humanos e foca nos processos de tradução e mediação que ocorrem nas redes (Latour, 2005).
Este artigo examina três controvérsias centrais relacionadas ao uso de IA na academia: (1) questões de autoria e propriedade intelectual, (2) vieses algorítmicos e (3) demandas por transparência. Utilizando a TAR como lente analítica, buscamos mapear as redes de atores envolvidos nestas disputas e analisar como diferentes interesses são mobilizados e traduzidos em práticas, normas e tecnologias.
A relevância desta análise reside no fato de que estas controvérsias não são meramente técnicas ou sociais, mas sociotécnicas – envolvem simultaneamente questões técnicas, éticas, políticas e epistemológicas. Como argumenta Venturini (2010, p. 258), "controvérsias são situações onde os atores discordam (ou melhor, concordam em discordar)" e, portanto, constituem "fóruns híbridos" onde diferentes lógicas, valores e interesses se encontram e se confrontam.
1. Controvérsias sobre Autoria e Propriedade Intelectual
A primeira controvérsia que analisamos refere-se às questões de autoria e propriedade intelectual que emergem quando sistemas de IA como o ChatGPT são utilizados na produção acadêmica. Esta controvérsia envolve uma redistribuição de agência entre humanos e não-humanos que desafia os modelos tradicionais de atribuição de autoria.
1.1 Redistribuição de Agência na Produção de Conhecimento
Na perspectiva da TAR, a agência não é uma propriedade exclusiva dos humanos, mas está distribuída em redes heterogêneas de atores humanos e não-humanos (Latour, 1999). No contexto da produção acadêmica assistida por IA, observamos uma redistribuição significativa desta agência. Como aponta Hayles (2021, p. 142), "quando humanos e máquinas trabalham juntos, a agência é distribuída através do sistema, com diferentes tipos de agência atribuídos a diferentes componentes".
Esta redistribuição de agência manifesta-se em práticas como a geração de texto, análise de dados e formulação de hipóteses, onde sistemas como o ChatGPT atuam não apenas como ferramentas passivas, mas como colaboradores ativos que influenciam o processo de pesquisa e seus resultados. Conforme observa Bender et al. (2021), os modelos de linguagem de grande escala não apenas reproduzem conhecimento, mas participam ativamente na sua transformação e reconfiguração.
1.2 Desafios para os Sistemas Tradicionais de Atribuição
Esta redistribuição de agência coloca em questão os sistemas tradicionais de atribuição de autoria e propriedade intelectual. Como argumenta Gitelman (2014), nossas noções de autoria estão profundamente enraizadas em concepções humanistas de originalidade, intencionalidade e criatividade que pressupõem um sujeito humano autônomo. A entrada de sistemas de IA como "colaboradores" desestabiliza estas concepções.
As controvérsias se manifestam em debates sobre questões como: Um texto gerado com assistência significativa de IA deve incluir o sistema como coautor? Quem detém os direitos sobre conteúdo produzido com IA? Como atribuir responsabilidade por erros ou problemas em trabalhos produzidos com assistência de IA?
Estas questões não são meramente teóricas, mas têm implicações práticas para instituições acadêmicas, editoras, agências de fomento e pesquisadores. Como observa Introna (2016, p. 24), "as práticas de atribuição não são apenas descritivas, mas performativas – elas produzem os próprios sujeitos e objetos que pretendem descrever".
1.3 Propostas Emergentes
Em resposta a estes desafios, diversos atores têm proposto novas abordagens para reconhecer as contribuições de sistemas de IA. Algumas revistas acadêmicas, como a Nature e a Science, desenvolveram diretrizes específicas para a divulgação do uso de IA na produção de artigos (Stokel-Walker, 2023). Estas diretrizes funcionam como "inscrições" no sentido latouriano – dispositivos que estabilizam certas práticas e relações dentro da rede.
Outros atores propõem modelos mais radicais. Danaher (2023) sugere um modelo de "autoria contributiva" que reconhece diferentes tipos e graus de contribuição, tanto humana quanto não-humana. Já Elish (2019) propõe o conceito de "responsabilidade moral em cascata" para distribuir a responsabilidade através da rede de atores envolvidos na produção de conhecimento assistida por IA.
Estas propostas não são apenas soluções técnicas, mas tentativas de "tradução" no sentido da TAR – processos pelos quais atores buscam alinhar interesses diversos e estabelecer novos arranjos sociotécnicos (Callon, 1984).
2. Debates sobre Vieses Algorítmicos
A segunda controvérsia central refere-se aos vieses algorítmicos presentes em sistemas de IA como o ChatGPT e suas implicações para a produção de conhecimento acadêmico. Esta controvérsia envolve disputas sobre a natureza, causas e soluções para estes vieses.
2.1 Mapeando os Atores da Controvérsia
A controvérsia sobre vieses algorítmicos envolve uma rede heterogênea de atores. De um lado, pesquisadores como Crawford (2021) e Noble (2018) têm documentado como sistemas de IA reproduzem e amplificam vieses sociais existentes. De outro lado, desenvolvedores e empresas de tecnologia como a OpenAI implementam estratégias de mitigação de vieses, como o alinhamento com feedback humano (Ouyang et al., 2022).
Outros atores importantes incluem comunidades marginalizadas que são frequentemente afetadas por vieses algorítmicos, organizações de direitos digitais que advogam por sistemas mais justos, e instituições acadêmicas que estabelecem políticas para o uso de IA. Como observa Jasanoff (2004), estas controvérsias não ocorrem em um vácuo, mas em "espaços de coprodução" onde conhecimento científico e ordem social são produzidos simultaneamente.
2.2 Mobilização de Argumentos sobre Vieses
Na perspectiva da TAR, é crucial analisar como diferentes atores mobilizam argumentos sobre vieses algorítmicos para avançar seus interesses e visões. Benjamin (2019) observa que debates sobre vieses frequentemente oscilam entre abordagens "técnicas" que focam em soluções algorítmicas e abordagens "sociais" que enfatizam transformações nas estruturas de poder.
Desenvolvedores de IA tendem a enquadrar vieses como problemas técnicos que podem ser resolvidos com melhores dados e algoritmos. Por exemplo, a OpenAI (2023) descreve seus esforços para reduzir vieses no ChatGPT através de técnicas como o aprendizado por reforço com feedback humano (RLHF). Esta abordagem representa o que Latour (1987) chamaria de "purificação" – a tentativa de separar questões técnicas de questões sociais.
Em contraste, pesquisadores críticos como D'Ignazio e Klein (2020) argumentam que vieses algorítmicos são manifestações de desigualdades estruturais mais amplas e não podem ser resolvidos apenas com soluções técnicas. Esta perspectiva enfatiza o que Latour chamaria de "hibridização" – o reconhecimento da inseparabilidade entre o técnico e o social.
2.3 Implicações para a Produção de Conhecimento Acadêmico
Os vieses algorítmicos têm implicações significativas para a produção de conhecimento acadêmico. Como observa Birhane (2021), quando sistemas como o ChatGPT são treinados predominantemente em textos acadêmicos ocidentais, eles tendem a reproduzir e amplificar perspectivas epistemológicas dominantes, marginalizando conhecimentos alternativos.
Esta dinâmica pode reforçar o que Santos (2007) chama de "epistemicídio" – a supressão sistemática de formas de conhecimento não-ocidentais. No contexto acadêmico, isso pode manifestar-se na perpetuação de cânones estabelecidos e na dificuldade de incorporar perspectivas marginalizadas.
Ao mesmo tempo, a controvérsia sobre vieses tem gerado novas práticas e metodologias. Pesquisadores como Gebru et al. (2021) propõem documentação sistemática de conjuntos de dados e modelos para identificar potenciais vieses. Estas práticas funcionam como o que Star e Griesemer (1989) chamam de "objetos de fronteira" – artefatos que facilitam a colaboração entre diferentes comunidades de prática.
3. Controvérsias sobre Transparência
A terceira controvérsia central refere-se às demandas por transparência em sistemas de IA utilizados na academia. Esta controvérsia envolve disputas sobre o que constitui transparência adequada e como equilibrá-la com outros valores como inovação e propriedade intelectual.
3.1 Demandas por "Abertura das Caixas-Pretas"
Na terminologia da TAR, sistemas de IA como o ChatGPT funcionam como "caixas-pretas" – conjuntos de associações que, uma vez estabilizados, são tratados como unidades singulares cuja complexidade interna é obscurecida (Latour, 1987). Diversos atores têm demandado a "abertura" destas caixas-pretas para permitir escrutínio e avaliação.
Pesquisadores como Burrell (2016) identificam múltiplas formas de opacidade em sistemas algorítmicos: opacidade intencional (proteção de propriedade intelectual), opacidade por analfabetismo técnico, e opacidade inerente a sistemas complexos de aprendizado de máquina. Cada forma de opacidade apresenta desafios distintos para a transparência.
No contexto acadêmico, a falta de transparência levanta questões epistemológicas fundamentais. Como argumenta Pasquale (2015, p. 8), "sem conhecimento das entradas e operações de sistemas de IA, não podemos avaliar adequadamente suas saídas". Isto coloca em questão princípios científicos básicos como reprodutibilidade e verificabilidade.
3.2 Tensões entre Propriedade Intelectual e Transparência
Uma tensão central nesta controvérsia ocorre entre demandas por transparência e proteção de propriedade intelectual. Empresas como a OpenAI argumentam que certos aspectos de seus modelos devem permanecer proprietários para proteger investimentos em pesquisa e desenvolvimento e prevenir uso malicioso (OpenAI, 2023).
Por outro lado, pesquisadores como Bender et al. (2021) argumentam que a falta de transparência impede a avaliação adequada de riscos e limita a pesquisa independente. Esta tensão reflete o que Callon e Latour (1981) descrevem como processos de "tradução" onde diferentes atores buscam definir problemas e soluções de maneiras que avancem seus interesses.
A controvérsia também envolve questões de poder e acesso. Como observa Ananny e Crawford (2018), a capacidade de exigir e obter transparência é distribuída desigualmente, com grandes instituições acadêmicas e corporações tendo mais poder para acessar informações sobre sistemas de IA do que pesquisadores independentes ou comunidades afetadas.
3.3 Propostas para Novos Modelos de Transparência
Em resposta a estas tensões, diversos atores têm proposto modelos alternativos de transparência. Mitchell et al. (2019) propõem o conceito de "prestação de contas por modelo" (model accountability) que enfatiza documentação sistemática de decisões de design, limitações conhecidas e usos pretendidos.
Outros pesquisadores, como Raji et al. (2020), propõem auditorias algorítmicas conduzidas por terceiros independentes como mecanismo para avaliar sistemas sem exigir divulgação completa de propriedade intelectual. Estas propostas representam tentativas de estabelecer o que Latour (2004) chama de "composição progressiva do mundo comum" – a construção coletiva de arranjos sociotécnicos que acomodam diferentes interesses e valores.
No contexto acadêmico específico, iniciativas como a Partnership on AI (2023) desenvolveram diretrizes para transparência em pesquisa assistida por IA que buscam equilibrar rigor científico, inovação e proteção de propriedade intelectual. Estas diretrizes funcionam como "inscrições" que estabilizam certas práticas e relações dentro da rede acadêmica.
4. Implicações para a Metodologia Científica
As controvérsias analisadas têm implicações profundas para a metodologia científica e as práticas de pesquisa acadêmica. Como observa Knorr-Cetina (1999), a ciência é uma prática cultural que se transforma em resposta a mudanças nas suas "culturas epistêmicas" – os arranjos e dinâmicas que produzem conhecimento em diferentes campos.
4.1 Transformação de Práticas de Pesquisa
A integração de sistemas de IA como o ChatGPT está transformando práticas fundamentais de pesquisa. Processos como revisão de literatura, análise de dados e redação acadêmica estão sendo reconfigurados pela participação de atores não-humanos com capacidades e limitações específicas.
Estas transformações não são simplesmente técnicas, mas envolvem o que Pickering (1995) chama de "dança de agência" – um processo de ajuste mútuo entre humanos e não-humanos. Pesquisadores adaptam suas práticas às capacidades e limitações dos sistemas de IA, enquanto estes sistemas são continuamente modificados em resposta a necessidades e críticas acadêmicas.
Um exemplo concreto desta transformação é a emergência de novas práticas de "engenharia de prompts" – técnicas para formular instruções que maximizam a utilidade das respostas de sistemas como o ChatGPT (White, 2023). Estas práticas representam o que a TAR chamaria de "mediação técnica" – processos pelos quais humanos e não-humanos modificam mutuamente suas ações (Latour, 1994).
4.2 Recomendações Práticas para Pesquisadores
Com base na análise das controvérsias, podemos formular recomendações práticas para pesquisadores que utilizam sistemas de IA como o ChatGPT:
- Documentação transparente: Documentar detalhadamente como sistemas de IA foram utilizados no processo de pesquisa, incluindo prompts específicos, versões de modelos e limitações conhecidas.
- Verificação cruzada: Verificar informações geradas por IA através de múltiplas fontes independentes, reconhecendo a possibilidade de alucinações e vieses.
- Reflexividade epistêmica: Refletir criticamente sobre como o uso de IA pode influenciar pressupostos, métodos e conclusões da pesquisa.
- Colaboração interdisciplinar: Engajar-se com pesquisadores de diferentes disciplinas para compreender as implicações técnicas, éticas e epistemológicas do uso de IA.
- Participação em governança: Participar ativamente no desenvolvimento de políticas e diretrizes institucionais para o uso responsável de IA na pesquisa.
Estas recomendações não são soluções definitivas, mas contribuições para o que Latour (2004) chama de "política da natureza" – processos coletivos de composição de um mundo comum que integra fatos científicos e valores sociais.
Conclusão
A análise das controvérsias sociotécnicas relacionadas ao uso de IA na academia revela a complexidade das redes de atores, interesses e valores envolvidos neste processo. Como argumenta Latour (2005, p. 12), "o social não é um tipo de coisa entre outras coisas, como uma ovelha negra entre ovelhas brancas, mas um tipo de conexão entre coisas que não são, em si mesmas, sociais".
As controvérsias sobre autoria, vieses e transparência não são simplesmente disputas sobre fatos técnicos ou valores sociais isolados, mas processos de "composição" onde o técnico e o social, o humano e o não-humano, são continuamente reconfigurados e redistribuídos.
A Teoria Ator-Rede oferece ferramentas valiosas para navegar estas controvérsias, pois nos permite rastrear as associações heterogêneas que constituem sistemas sociotécnicos como o ChatGPT e analisar os processos de tradução pelos quais diferentes atores buscam alinhar interesses e estabelecer novos arranjos.
Para pesquisadores e instituições acadêmicas, o desafio não é simplesmente adotar ou rejeitar sistemas de IA, mas participar ativamente na composição de redes sociotécnicas que promovam valores como rigor científico, justiça epistêmica e responsabilidade compartilhada. Como observa Haraway (2016, p. 1), precisamos "permanecer com o problema" – engajar-nos com as complexidades e contradições das nossas relações com tecnologias emergentes, sem buscar soluções simplistas ou definitivas.
As controvérsias analisadas neste artigo não são obstáculos a serem superados, mas oportunidades para repensar e reconstruir nossas práticas acadêmicas de maneiras que reconheçam a agência distribuída, a responsabilidade compartilhada e a natureza híbrida do conhecimento na era da IA. Como sugere Latour (2013), talvez precisemos desenvolver novos "modos de existência" que permitam formas mais produtivas de coabitação entre humanos e não-humanos na produção de conhecimento.
Referências Bibliográficas
- Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973-989.
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
- Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity Press.
- Birhane, A. (2021). The impossibility of automating ambiguity. Artificial Life, 27(1), 44-61.
- Burrell, J. (2016). How the machine 'thinks': Understanding opacity in machine learning algorithms. Big Data & Society, 3(1), 1-12.
- Callon, M. (1984). Some elements of a sociology of translation: Domestication of the scallops and the fishermen of St Brieuc Bay. The Sociological Review, 32(1_suppl), 196-233.
- Callon, M., & Latour, B. (1981). Unscrewing the big Leviathan: How actors macro-structure reality and how sociologists help them to do so. In K. Knorr-Cetina & A. V. Cicourel (Eds.), Advances in social theory and methodology (pp. 277-303). Routledge.
- Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
- Danaher, J. (2023). The philosophical case for robot friendship. Journal of Posthuman Studies, 4(2), 231-252.
- D'Ignazio, C., & Klein, L. F. (2020). Data feminism. MIT Press.
- Elish, M. C. (2019). Moral crumple zones: Cautionary tales in human-robot interaction. Engaging Science, Technology, and Society, 5, 40-60.
- Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86-92.
- Gitelman, L. (Ed.). (2014). "Raw data" is an oxymoron. MIT Press.
- Haraway, D. J. (2016). Staying with the trouble: Making kin in the Chthulucene. Duke University Press.
- Hayles, N. K. (2021). Postprint: Books and becoming computational. Columbia University Press.
- Introna, L. D. (2016). Algorithms, governance, and governmentality: On governing academic writing. Science, Technology, & Human Values, 41(1), 17-49.
- Jasanoff, S. (2004). States of knowledge: The co-production of science and social order. Routledge.
- Knorr-Cetina, K. (1999). Epistemic cultures: How the sciences make knowledge. Harvard University Press.
- Latour, B. (1987). Science in action: How to follow scientists and engineers through society. Harvard University Press.
- Latour, B. (1994). On technical mediation. Common Knowledge, 3(2), 29-64.
- Latour, B. (1999). Pandora's hope: Essays on the reality of science studies. Harvard University Press.
- Latour, B. (2004). Politics of nature: How to bring the sciences into democracy. Harvard University Press.
- Latour, B. (2005). Reassembling the social: An introduction to actor-network-theory. Oxford University Press.
- Latour, B. (2013). An inquiry into modes of existence. Harvard University Press.
- Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220-229.
- Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
- OpenAI. (2023). GPT-4 technical report. arXiv preprint arXiv:2303.08774.
- Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., & Lowe, R. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730-27744.
- Partnership on AI. (2023). Guidelines for AI research transparency. Retrieved from https://partnershiponai.org/paper/ai-research-transparency/
- Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
- Pickering, A. (1995). The mangle of practice: Time, agency, and science. University of Chicago Press.
- Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI accountability gap: Defining an end-to-end framework for internal algorithmic auditing. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, 33-44.
- Santos, B. de S. (2007). Beyond abyssal thinking: From global lines to ecologies of knowledges. Review (Fernand Braudel Center), 30(1), 45-89.
- Star, S. L., & Griesemer, J. R. (1989). Institutional ecology, 'translations' and boundary objects: Amateurs and professionals in Berkeley's Museum of Vertebrate Zoology, 1907-39. Social Studies of Science, 19(3), 387-420.
- Stokel-Walker, C. (2023). ChatGPT listed as author on research papers: Many scientists disapprove. Nature, 613(7945), 620-621.
- Venturini, T. (2010). Diving in magma: How to explore controversies with actor-network theory. Public Understanding of Science, 19(3), 258-273.
- White, J. (2023). A systematic review of prompt engineering techniques for large language models. Computational Linguistics, 49(3), 489-518.