Acessibilidade / Reportar erro

Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas

Editorial – Artificial intelligence and co-authorship of scientific manuscripts: discussions about using ChatGPT in scientific research and writing

Introdução

O avanço das tecnologias ocasiona relevantes e imprevisíveis impactos na vida humana em geral e na pesquisa científica especificamente. Assim, a sua publicação em revistas é impactada diretamente por inovações na forma de se fazer ciência. Em termos recentes, a propagação do uso de ferramentas de inteligência artificial, como ChatGPT, tem gerado discussões pertinentes em relação à sua possível contribuição à pesquisa e à escrita científica e, consequentemente, aos critérios de autoria e coautoria em trabalhos científicos. Por exemplo, se houver a utilização de ChatGPT para produção de parte do texto do artigo, para análise de dados, etc., o mecanismo deve ser listado como coautor do artigo?

Para instigar o debate, apresentamos esse questionamento ao próprio sistema (ChatGPT) e obtivemos uma resposta interessante, embora questionável, para a questão: “A decisão de incluir o ChatGPT como coautor em um artigo científico depende de vários fatores, incluindo o grau de contribuição do modelo para a pesquisa e redação do texto. O ChatGPT é uma ferramenta poderosa para auxiliar na geração de texto e na obtenção de informações, mas seu papel em um projeto de pesquisa pode variar. Aqui estão algumas considerações a serem feitas ao decidir se o ChatGPT deve ser incluído como coautor:

  1. Contribuição Substancial: Se o ChatGPT desempenhou um papel substancial na criação do conteúdo do artigo, influenciou a análise dos dados, ajudou na formulação das ideias ou desempenhou um papel fundamental na pesquisa, pode haver argumentos para incluí-lo como coautor.

  2. Autores Humanos Principais: Se a maior parte do trabalho, incluindo o design da pesquisa, a análise dos resultados e a interpretação dos dados, foi realizada por autores humanos, e o ChatGPT foi usado principalmente como uma ferramenta de suporte, a inclusão como coautor pode ser menos justificável.

  3. Agradecimentos: Em muitos casos, agradecimentos no final do artigo podem ser apropriados para reconhecer a contribuição do ChatGPT. Isso permite destacar a utilização da ferramenta sem necessariamente conceder o status de coautor.

  4. Políticas da Revista: É importante verificar as políticas da revista à qual você pretende submeter o artigo. Algumas revistas podem ter diretrizes específicas sobre a inclusão de ferramentas ou modelos como coautores.

  5. Transparência e Ética: Independentemente de incluir o ChatGPT como coautor, é crucial ser transparente sobre a utilização da ferramenta. Isso inclui detalhar como o modelo foi utilizado, qual foi o seu papel e como ele contribuiu para a pesquisa.

  6. Lembre-se de que a ética é uma consideração importante em qualquer decisão relacionada à autoria de um artigo científico. Se você está em dúvida, é uma boa prática discutir a questão com seus colaboradores, orientadores ou colegas de pesquisa para obter uma perspectiva mais abrangente e tomar uma decisão informada.”2 2 ChatGPT (https://chat.openai.com/), acesso em 11 ago. 2023. Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”.

Contudo, a resposta retornada pelo ChatGPT não é compatível com a posição majoritária em termos de orientações internacionais de integridade científica.3 3 Vale destacar que, em momento posterior, quando da revisão final deste texto, idêntico questionamento foi apresentado ao ChatGPT, em 2 out. 2023 (Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”) e a resposta foi outra, mais compatível com os parâmetros de integridade aqui propostos, o que demonstra a evolução do sistema: “O uso de ChatGPT, ou qualquer outra ferramenta de IA, na pesquisa ou redação de um artigo científico não requer que o modelo seja listado como coautor. A autoria em um artigo científico deve ser reservada para aqueles que fizeram contribuições intelectuais substanciais para o trabalho. No entanto, é apropriado e ético reconhecer o uso de ferramentas de IA em seus agradecimentos ou na seção de metodologia do artigo. Por exemplo, você pode mencionar que ‘uma parte da pesquisa foi realizada com a assistência do ChatGPT, um modelo de linguagem desenvolvido pela OpenAI’. Além disso, se a plataforma ou a equipe de desenvolvimento da ferramenta de IA (como a OpenAI, no caso do ChatGPT) tiverem fornecido orientações específicas sobre como citar ou referenciar a ferramenta em trabalhos acadêmicos, é importante seguir essas orientações. Em resumo, não é necessário incluir o ChatGPT como coautor, mas é importante reconhecer a contribuição da ferramenta na seção de agradecimentos ou metodologia do artigo. Certifique-se também de seguir quaisquer diretrizes específicas fornecidas pelos desenvolvedores da ferramenta.” Diante disso, este editorial pretende problematizar e sugerir, considerando o cenário atual, critérios para definição da coautoria em trabalhos científicos e o uso de ferramentas de inteligência artificial.

O uso de inteligência artificial na pesquisa e redação científicas

A utilização de mecanismos de inteligência artificial tem se disseminado no público científico, especialmente a partir da expansão do ChatGPT. A partir de um modelo estatístico e probabilístico, o sistema gera uma resposta ao comando inserido pelo usuário, desenvolvendo uma réplica ao questionamento que, em geral, apresenta encadeamento lógico e plausibilidade. Assim, com base nos comandos e informações providos ao sistema, forma-se um banco de dados que constantemente é atualizado e ampliado para fornecimento de respostas mais precisas.

Sem dúvidas, abre-se uma enorme gama de possibilidades e avanços nas diversas áreas das ciências, nas mais distintas etapas do processo de pesquisa, editoração e divulgação científicas.4 4 LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. p. 6. O sistema pode revolucionar o modo de sistematização de dados, de consolidação de revisões bibliográficas, etc. Contudo, os riscos, especialmente no estágio atual do seu desenvolvimento, são relevantes e precisam sem ponderados, ainda mais ao se considerar a função da equipe editorial de periódicos científicos.5 5 VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal v. 3, n. 1, p. 9–17, 2017.

Embora o sistema se aprimore diuturnamente e de um modo extremamente veloz, verifica-se que a resposta ao comando pode resultar comprometida por diversos motivos, como vieses e plágio, tendo em vista as informações que subsidiaram o seu treinamento.6 6 LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023. Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023; THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, 2023. p. 313; YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023. Além disso, o modo de determinação do comando e até mesmo a ordem de sua inserção podem ocasionar respostas distintas e não diretamente relacionadas ao objeto questionado. Diante disso, já há autores que recomendam alterações nos mecanismos para adotar maiores proteções contra plágio e violações de direitos autorais.7 7 NAGPAL, Arth. Authorship in works created by AI. Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023. p. 9-10.

Na utilização dos sistemas, é fundamental considerar que toda a informação inserida no comando, como artigos e materiais científicos, será considerada na aprendizagem do algoritmo e, assim, poderá ser utilizada por ele em futuras respostas. Isso potencializa o risco de plágio com o passar do tempo. Portanto, autore/as, revisore/as e editore/as precisam adotar postura cautelosa em seu emprego, vedando-se a inserção no sistema de partes do texto em avaliação.

A WAME (Associação Mundial dos Editores em Medicina) esboçou recomendações sobre chatbots e inteligência artificial em manuscritos científicos: “1) Somente humanos podem ser autore/as; 2) Autore/as devem declarar as fontes de seus materiais; 3) Autore/as devem se responsabilizar publicamente por seus trabalhos; 4) Editore/as e revisore/as devem indicar especificamente para autores, e reciprocamente, o uso de chatbots na avaliação de manuscritos e redação de pareceres e correspondências; e, 5) Editore/as precisam de ferramentas digitais apropriadas para lidar com os efeitos de chatbots na publicação”.8 8 ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023. Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023 (tradução livre).

De modo semelhante, o COPE (Comitê de Ética na Publicação) adotou posição no sentido de que ferramentas de IA não cumprem os requisitos mínimos de autoria porque não assumem responsabilidade pelo trabalho submetido e não são capazes de constatar a presença ou ausência de conflitos de interesse ou problemas de direitos autorais e licenças. Também ressaltou que autore/as devem declarar como ferramentas de IA foram utilizadas na pesquisa e são responsáveis pelo trabalho integralmente, inclusive trechos eventualmente por elas produzidos.9 9 COPE, Authorship and AI tools position statement. Feb. 13, 2023. Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.

No mesmo sentido, a revista Nature, juntamente aos periódicos da Springer, alterou suas políticas editorias em sentido semelhante, a partir de dois princípios. Primeiramente, sistemas como ChatGPT não podem ser indicados como autores, visto que não são responsabilizáveis pela pesquisa e/ou texto. Além disso, autore/as que utilizem tais mecanismos devem declarar isso na seção de metodologia ou agradecimentos do artigo.10 10 “Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs. Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript.” (Disponível em: < https://www.nature.com/nature/for-authors/initial-submission>. Acesso em: 12 ago. 2023).

Com relação à autoria, em editorial anteriormente publicado nesta Revista, assentou-se que, para poder ser considerado autor/a do trabalho, a/o pesquisador/a “deve cumprir requisitos básicos de atuação no sentido de: 1) contribuir efetivamente com a pesquisa (a) em sua concepção ou desenvolvimento, e (b) em sua redação e revisão crítica; 2) aprovar a versão final do artigo e concordar com as ideias sustentadas; e, 3) responsabilizar-se por garantir a integridade da pesquisa e do artigo em sua integralidade”.11 11 VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. p. 19. Diante disso, no cenário atual da IA em chatbots, tais ferramentas não são capazes de aprovar a versão final do trabalho e concordar com as ideias sustentadas, tampouco de se responsabilizar pela integridade da pesquisa científica.

Para assegurar a transparência necessária à produção de conhecimento científico aberto, autore/as devem declarar a utilização de chatbots e mecanismos de inteligência artificial na redação de artigos e nas demais fases da pesquisa científica.12 12 TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, 2023. p. 612. Tal declaração deve constar no item de metodologia do trabalho e/ou nos agradecimentos ao final do artigo. Para garantir a repetibilidade do processo, deve-se indicar o comando exato utilizado, qual ferramenta e a data da pesquisa realizada.

Por fim, pensa-se que as políticas aqui recomendadas para atuação de autore/as também se aplicam, na medida de suas respectivas atribuições, a revisore/as e editore/as. Portanto, todo/as a/os autore/as do processo editorial devem ser transparentes em relação à utilização de chatbots e mecanismos de inteligência artificial, responsabilizando-se pelo conteúdo gerado e informando aos demais o seu emprego.

Conclusão

Diante do exposto, considerando o cenário atual, pensa-se que as revistas científicas devem inserir normas em suas políticas editoriais e de integridade científica para regular questões de coautoria relacionadas ao uso de inteligência artificial, recomendando-se que: 1. mecanismos de inteligência artificial (como ChatGPT) não cumprem os requisitos para coautoria; 2. autore/as devem declarar (na metodologia ou nos agradecimentos) a utilização de mecanismos de inteligência artificial na redação do artigo e/ou nas demais fases da pesquisa científica; 3. autore/as são responsáveis por erros, plágios e outras más-práticas que eventualmente ocorram em suas pesquisas em razão da utilização de mecanismos de inteligência artificial.

Contudo, por óbvio, ressalta-se que este editorial pode ser rapidamente superado em suas conclusões, considerando-se a veloz alteração das premissas relacionadas às possibilidades e às capacidades das ferramentas de inteligência artificial na sociedade e na pesquisa científica.

  • 2
    ChatGPT (https://chat.openai.com/), acesso em 11 ago. 2023. Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”.
  • 3
    Vale destacar que, em momento posterior, quando da revisão final deste texto, idêntico questionamento foi apresentado ao ChatGPT, em 2 out. 2023 (Comando utilizado: “O ChatGPT deve ser indicado como coautor em artigo científico quando for utilizado na pesquisa ou redação do texto?”) e a resposta foi outra, mais compatível com os parâmetros de integridade aqui propostos, o que demonstra a evolução do sistema: “O uso de ChatGPT, ou qualquer outra ferramenta de IA, na pesquisa ou redação de um artigo científico não requer que o modelo seja listado como coautor. A autoria em um artigo científico deve ser reservada para aqueles que fizeram contribuições intelectuais substanciais para o trabalho. No entanto, é apropriado e ético reconhecer o uso de ferramentas de IA em seus agradecimentos ou na seção de metodologia do artigo. Por exemplo, você pode mencionar que ‘uma parte da pesquisa foi realizada com a assistência do ChatGPT, um modelo de linguagem desenvolvido pela OpenAI’. Além disso, se a plataforma ou a equipe de desenvolvimento da ferramenta de IA (como a OpenAI, no caso do ChatGPT) tiverem fornecido orientações específicas sobre como citar ou referenciar a ferramenta em trabalhos acadêmicos, é importante seguir essas orientações. Em resumo, não é necessário incluir o ChatGPT como coautor, mas é importante reconhecer a contribuição da ferramenta na seção de agradecimentos ou metodologia do artigo. Certifique-se também de seguir quaisquer diretrizes específicas fornecidas pelos desenvolvedores da ferramenta.”
  • 4
    LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. p. 6LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. https://doi.org/10.5935/0004-2749.2023-1003
    https://doi.org/10.5935/0004-2749.2023-1...
    .
  • 5
    VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal v. 3, n. 1, p. 9–17, 2017VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal v. 3, n. 1, p. 9–17, 2017. https://doi.org/10.22197/rbdpp.v3i1.34
    https://doi.org/10.22197/rbdpp.v3i1.34...
    .
  • 6
    LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023. Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023.
    https://publicationethics.org/news/artif...
    . Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023; THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, 2023. p. 313THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, p. 313, 2023. https://doi.org/10.1126/science.adg7879
    https://doi.org/10.1126/science.adg7879...
    ; YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023. https://doi.org/10.1590/1806-9282.20230282
    https://doi.org/10.1590/1806-9282.202302...
    .
  • 7
    NAGPAL, Arth. Authorship in works created by AINAGPAL, Arth. Authorship in works created by AI. Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023.
    https://legaltechcenter.net/files/sites/...
    . Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023. p. 9-10.
  • 8
    ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023. Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023.
    https://wame.org/page3.php?id=106...
    . Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023 (tradução livre).
  • 9
    COPE, Authorship and AI tools position statement. Feb. 13, 2023COPE, Authorship and AI tools position statement. Feb. 13, 2023. Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.
    https://publicationethics.org/cope-posit...
    . Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.
  • 10
    “Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs. Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript.” (Disponível em: < https://www.nature.com/nature/for-authors/initial-submission>. Acesso em: 12 ago. 2023).
  • 11
    VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. p. 19VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. https://doi.org/10.22197/rbdpp.v6i1.313
    https://doi.org/10.22197/rbdpp.v6i1.313...
    .
  • 12
    TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, 2023. p. 612TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, p. 612, 2023. https://doi.org/10.1038/d41586-023-00191-1
    https://doi.org/10.1038/d41586-023-00191...
    .

Acknowledgment

We used ChatGPT, as pointed in footnotes 2 and 3, to generate an initial answer about co-authorship and artificial intelligence, which is quoted in the introduction of the editorial.

  • Declaration of originality: the author assured that the text here published has not been previously published in any other resource and that future republication will only take place with the express indication of the reference of this original publication; she also attests that there is no third party plagiarism or self-plagiarism.

How to cite (ABNT Brazil):

  • VASCONCELLOS, Vinicius G. Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas. Revista Brasileira de Direito Processual Penal, vol. 9, n. 3, p. 1-11, set./dez. 2023. https://doi.org/10.22197/rbdpp.v9i3.913

Referências

  • COPE, Authorship and AI tools position statement. Feb. 13, 2023. Disponível em: <https://publicationethics.org/cope-position-statements/ai-author>. Acesso em: 12 ago. 2023.
    » https://publicationethics.org/cope-position-statements/ai-author
  • LEVENE, Alysa. Artificial intelligence and authorship. COPE, Feb. 13, 2023. Disponível em: <https://publicationethics.org/news/artificial-intelligence-and-authorship>. Acesso em: 12 ago. 2023.
    » https://publicationethics.org/news/artificial-intelligence-and-authorship
  • LIRA, R. P. C. et al. Challenges and advantages of being a scientific journal editor in the era of ChatGPT. Arquivos Brasileiros de Oftalmologia, v. 86, n. 3, p. 5–7, maio 2023. https://doi.org/10.5935/0004-2749.2023-1003
    » https://doi.org/10.5935/0004-2749.2023-1003
  • LOPES, Marcelo Frullani. Obras geradas por inteligência artificial: desafios ao conceito jurídico de autoria. 2021. Dissertação de Mestrado - Faculdade de Direito, Universidade de São Paulo, São Paulo.
  • NAGPAL, Arth. Authorship in works created by AI Disponível em: <https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf>. Acesso em: 12 ago. 2023.
    » https://legaltechcenter.net/files/sites/159/2020/05/Authorship-in-Works-Created-by-Artificial-Intelligence.pdf
  • TOOLS such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, p. 612, 2023. https://doi.org/10.1038/d41586-023-00191-1
    » https://doi.org/10.1038/d41586-023-00191-1
  • THORP, Holden. ChatGPT is fun, but not an author. Science, vol. 379, n. 6630, p. 313, 2023. https://doi.org/10.1126/science.adg7879
    » https://doi.org/10.1126/science.adg7879
  • VASCONCELLOS, V. G. de. Editorial: A função do periódico científico e do editor para a produção do conhecimento no Direito e nas ciências criminais. Revista Brasileira de Direito Processual Penal v. 3, n. 1, p. 9–17, 2017. https://doi.org/10.22197/rbdpp.v3i1.34
    » https://doi.org/10.22197/rbdpp.v3i1.34
  • VASCONCELLOS, Vinicius G. Editorial – Autoria e coautoria de trabalhos científicos: discussões sobre critérios para legitimação de coautoria e parâmetros de integridade científica. Revista Brasileira de Direito Processual Penal, vol. 6, n. 1, jan./abr. 2020. https://doi.org/10.22197/rbdpp.v6i1.313
    » https://doi.org/10.22197/rbdpp.v6i1.313
  • YOSHINARI JÚNIOR, Gerson H.; VITORINO, Luciano M. How may ChatGPT impact medical teaching? Revista da Associação Médica Brasileira, v. 69, n. 4, p. e20230282, 2023. https://doi.org/10.1590/1806-9282.20230282
    » https://doi.org/10.1590/1806-9282.20230282
  • ZIELINSKI, WINKER, AGGARWAL, FERRIS, HEINEMANN, LAPEÑA, PAI, ING, CITROME, ALAM, VOIGHT, HABIBZADEH. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME, May 31, 2023. Disponível em: <https://wame.org/page3.php?id=106>. Acesso em: 12 ago. 2023.
    » https://wame.org/page3.php?id=106

Editado por

Editorial team

  • Editor-in-chief: 1 (nJG)

  • Associated-editor: 1 (CRG)

Datas de Publicação

  • Publicação nesta coleção
    13 Nov 2023
  • Data do Fascículo
    Sep-Dec 2023

Histórico

  • Recebido
    10 Set 2023
  • Revisado
    30 Set 2023
  • Aceito
    02 Out 2023
Instituto Brasileiro de Direito Processual Penal Av. Praia de Belas, 1212 - conj 1022 - Praia de Belas, Porto Alegre - RS / Brasil. CEP 90110-000., +55 (51) 3406-1478 - Porto Alegre - RS - Brazil
E-mail: revista@ibraspp.com.br