dc.contributor.author | Flores-Cohaila, Javier A. | |
dc.contributor.author | Ruesta-Bermejo, Ramón | |
dc.contributor.author | Gutierrez-Rios, Carlos | |
dc.contributor.author | Ramos-Godoy, Carlos | |
dc.contributor.author | Miranda-Chávez, Brayan | |
dc.contributor.author | Copaja-Corzo, Cesar | |
dc.date.accessioned | 2024-07-01T21:23:55Z | |
dc.date.available | 2024-07-01T21:23:55Z | |
dc.date.issued | 2024-05-22 | |
dc.identifier.citation | Educación Médica. 2024;25(6). | es_PE |
dc.identifier.uri | https://hdl.handle.net/20.500.12959/5064 | |
dc.description.abstract | Introducción: diseñar preguntas de opción múltiple (POM) con Microsoft Bing (Copilot) para
evaluar su calidad e índices psicométricos en educación médica.
Material y métodos: se diseñó un examen de 180 preguntas con Microsoft Bing. Este fue
evaluado por educadores médicos en términos de relevancia y calidad de distractores. Luego,
tras administrarse a estudiantes, se calcularon los índices de dificultad y discriminación.
Resultados: la mayoría de preguntas fueron de alta relevancia y los distractores de alta calidad.
Los índices de discriminación y dificultad de las preguntas fueron aceptables en la mayoría de
preguntas.
Conclusión: Microsoft Bing (Copilot) podría usarse como sustituto de ChatGPT para el diseño de
POM dadas las evidencias de validez recolectadas en el estudio. | es_PE |
dc.description.abstract | Introduction: To design multiple-choice questions (MCQs) using Microsoft Bing (Copilot) and
evaluate their quality and psychometric indices in medical education. Materials and methods: A 180-question exam was designed using Microsoft Bing. It was
evaluated by medical educators in terms of relevance and distractor quality. After administering
the exam to students, difficulty and discrimination indices were calculated.
Results: Most questions were highly relevant, and the distractors were of high quality. The
discrimination and difficulty indices were acceptable for the majority of the questions.
Conclusion: Microsoft Bing (Copilot) could be used as a substitute for ChatGPT in designing
MCQs, given the evidence of validity collected in the study | es_PE |
dc.format | application/pdf | es_PE |
dc.language.iso | spa | es_PE |
dc.publisher | Elsevier España | es_PE |
dc.relation.uri | https://www.sciencedirect.com/science/article/pii/S1575181324000652?ref=pdf_download&fr=RR-2&rr=89c963f3ccf64ffa | es_PE |
dc.rights | info:eu-repo/semantics/openAccess | es_PE |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-sa/4.0/ | es_PE |
dc.subject | Educación médica | es_PE |
dc.subject | Evaluación | es_PE |
dc.subject | Inteligencia artificial | es_PE |
dc.subject | ChatGPT | es_PE |
dc.subject | Preguntas de opción múltiple | es_PE |
dc.subject | Perú | es_PE |
dc.subject | Medical education | es_PE |
dc.subject | Assessment | es_PE |
dc.subject | Artificial intelligence | es_PE |
dc.subject | ChatGPT | es_PE |
dc.subject | Multiple-choice questions | es_PE |
dc.title | Evidencias de validez de las preguntas de opción múltiple diseñadas por Microsoft Bing (Copilot) | es_PE |
dc.title.alternative | Evidence validity of multiple-choice questions designed with Microsoft Bing (Copilot) | es_PE |
dc.type | info:eu-repo/semantics/article | es_PE |
dc.subject.ocde | https://purl.org/pe-repo/ocde/ford#3.03.12 | es_PE |
dc.identifier.doi | https://doi.org/10.1016/j.edumed.2024.100950 | |