medigraphic.com
ENGLISH

Cirujano General

ISSN 2594-1518 (Digital)
ISSN 1405-0099 (Impreso)
  • Mostrar índice
  • Números disponibles
  • Información
    • Información general        
    • Directorio
  • Publicar
    • Instrucciones para autores        
    • Envío de artículos
  • medigraphic.com
    • Inicio
    • Índice de revistas            
    • Registro / Acceso
  • Mi perfil

2023, Número 2

Siguiente >>

Cir Gen 2023; 45 (2)


Uso de ChatGPT en los manuscritos científicos

Escamilla Ortiz, Abilene Cirenia1
Texto completo Cómo citar este artículo 10.35366/111506

DOI

DOI: 10.35366/111506
URL: https://dx.doi.org/10.35366/111506

Idioma: Español/Inglés [English version]
Referencias bibliográficas: 5
Paginas: 65-66
Archivo PDF: 95.39 Kb.


PALABRAS CLAVE

Sin palabras Clave



El GPT es un tipo de inteligencia artificial desarrollada por la compañía OpenAI en noviembre de 2022 y está diseñado para generar texto similar al humano. Es un modelo de lenguaje y se usa frecuentemente en chatbots que son programas de computadora capaces de sostener una conversación por texto o voz con un humano.1,2

El uso de chatbot y de procesamiento del lenguaje natural, incluido el ChatGPT, tienen el potencial de revolucionar el campo de las publicaciones médicas al automatizar algunas tareas y hacer más eficiente el proceso de escribir. Se ha mencionado que pueden ayudar a extraer información de expedientes electrónicos, asistir en búsquedas de la literatura médica o ser una guía en el estilo y formato de escribir.

Varios expertos y revistas médicas rechazan el uso de ChatGPT, ya que no tiene pensamiento crítico y presenta información redundante e irracional; su uso hace que no se tengan ideas originales y no se pueden argumentar los puntos, en el caso de utilizarlo en un manuscrito científico el contenido será del bot, con esto vienen problemas médico-legales y de propiedad intelectual o autoría.2

El ChatGPT no tiene acceso a PubMed ni a Cochrane, por lo tanto, hay carencias en la información que da, además de que no es capaz de elaborar una discusión estructurada.2 Se puede utilizar para revisar material, hacer un escrito constructivo, pero no para hacer un anteproyecto original. Se requiere de una mente intelectual humana, así como de políticas que verifiquen los datos que se generan por los sistemas de inteligencia artificial.

El ChatGPT ya se ha enlistado como autor en algunos artículos científicos, algunos editores piensan que no es una buena decisión. La autoría de un artículo le confiere: créditos por la contribución y responsabilidad por el contenido del trabajo, como lo dice el Comité en Ética y Publicaciones (COPE) y el Comité Internacional de Editores de Revistas Médicas (ICMJE), este último recomienda que para que alguien pueda ser autor debe tener contribución sustancial, diseño del trabajo, interpretación de los datos, al hacer el borrador o la revisión crítica, además de tener la aprobación final de la versión que saldrá a publicación; de acuerdo a esto un chatbot no debería aparecer como autor, sino únicamente tener un reconocimiento en el artículo.3

Las empresas editoriales quieren crear políticas para el uso de chatbots, pero todavía es un tema controversial que no está claro. Podría ser una herramienta para detectar plagio, se haría cargo del lenguaje y la sintaxis en los artículos, la verificación de la estadística sería fácil. El ChatGPT debería ser capaz de saber si el manuscrito fue hecho por un humano o por un programa de computo.4

Se debe sugerir a las revistas que el autor declare si utilizó inteligencia artificial para complementar el manuscrito, esto logrará una mejor transparencia.5 La Asociación Mundial de Editores (WAME), ha sacado recomendaciones respecto del ChatGPT.

Los chatbots no pueden ser autores, los autores deben ser claros y expresar cómo usaron los chatbots, los autores son responsables del uso de chatbots en su manuscrito, los editores van a necesitar de herramientas para detectar contenido generado por inteligencia artificial.

Mientras no existan reglas claras, las revistas médicas no deben autorizar el uso de chatbots o inteligencia artificial para la elaboración de manuscritos y, sobre todo, se debe aclarar todo lo relacionado a la autoría.


REFERENCIAS (EN ESTE ARTÍCULO)

  1. Biswas S. ChatGPT and the future of medical writing. Radiology. 2023; 307: e223312.

  2. Arif TB, Munaf U, UI-Haque. The future of medical education and research: is ChatGPT a blessing or blight in disguise? Med Educ Online. 2023; 28: 2181052.

  3. Siegerink B, Pet LA, Rosendaal FR, Schoones JW. ChatGPT as an author of academic papers is wrong and highlights the concepts of accountability and contributorship. Nurse Educ Pract. 2023; 68: 103599.

  4. Bhattacharya K, Bhattacharya AS, Bhattacharya N, Yagnik VD, Garg P, Kumar S. ChatGPT in surgical practice-a new kid on the block. Indian J Surg. 2023.

  5. Gaggioli A. Ethics: disclose use of AI in scientific manuscripts. Nature. 2023; 614: 413.



AFILIACIONES

1 Editora, Cirujano General. orcid.org/0000-0001-5635-5845



CORRESPONDENCIA

Abilene Cirenia Escamilla Ortiz. E-mail: escamillaoa@amcg.org.mx


2020     |     www.medigraphic.com

Mi perfil

C?MO CITAR (Vancouver)

Cir Gen. 2023;45

ARTíCULOS SIMILARES

CARGANDO ...