universitÉ paris descartes - sorbonne-universite.fr · compared to multiple choice questions test...
TRANSCRIPT
UNIVERSITÉ PARIS DESCARTES
Faculté de Médecine
Diplôme Inter Universitaire de Pédagogie Médicale
Evaluation des étudiants en médecine par jeu vidéo comparé aux questions à choix multiple
Medical students evaluation with serious game compared to multiple choice questions test
Julien ADJEDJ et Gregory DUCROCQ
Remerciements à Claire BOULETI notre associée, Eleonora FABBRO notre psychologue, Yedid Elbez pour l’analyse statistique et Louise REINHART notre coup de
pouce.
Mots clés : Serious game, multiple choice questions, medical student evaluation, student satisfaction, representative test.
Année universitaire 2015-2016
Abstract Background Medical students evaluation is widely based on multiple choice questionnaire (MCQ) tests.
MCQ is objective and effective to evaluate medical student knowledge but limited to evaluate
medical skills. Furthermore, MCQ could generate frustration with unequal questions
difficulties and lead to a sizable proportion of ex aequo or close results with low results
variability. We sought to compare MCQ to serious game (SG) for medical student evaluation.
Material and methods
From January to September 2016, we included in a cross over randomized study all volunteer
medical students from two universities of medicine in Paris. Medical students had to pass both
evaluations SG and MCQ with similar objectives. Students were randomized in two groups to
pass first SG or MCQ. They were evaluated for each modality on a scale from 0 to 100. The
primary objective was result variability evaluated by variance comparison. Secondary
objectives were result difference, correlation between results in MCQ and serious game and
student satisfaction.
Results
During the study period we included 68 medical students. The variance of the student results
was higher in SG (σ2 = 265.4) compared to MCQ (σ2 = 140.2) (p=0.009). Mean results was
significantly lower for SG compared to MCQ respectively 66.1 ± 16.3 and 75.7 ± 11.8 (p <
0.001). No correlation was found between both tests results (R2=0.04, p = 0.58). Satisfaction
questionnaires showed a significantly higher satisfaction for SG, SG was experienced as
closer to clinical reality, represent a proper evaluation and that improve knowledge after SG
compared to MCQ (p < 0.001 for all).
Conclusion
Serious game represents a new evaluation modality for medical student. Our study showed
that SG is more effective to improve results variability in medical students with higher
satisfaction compared to MCQ.
Introduction
Medical student evaluation is one of the most important components of educational
program, it is used for training, degree validation and career access. If accomplished well, it
can improve students’ motivation for learning and provide educators with useful feedback.
Medical education cannot be limited to medical bookish knowledge defined as the ability to
provide answer from medical literature1, 2 it consists also to gain in medical skills defined as
the ability to act in order to obtain medical information and provide good care.3 Therefore, a
proper evaluation test is needed to evaluate medical student. An ideal test will be able to
evaluate both medical bookish knowledge and medical skills, reflect medical practice, with
objective evaluation, low cost and high results variability between students to allow
representative classification and fair career access based on test results. Multiple choice
question (MCQ) is widely used in medical cursus due to simplicity, objectivity and low cost
of automatic correction. One can realize that MCQ allowed medical knowledge evaluation
only with close questions while medical skills and competence are better evaluated with
onsite (patient’s bed) evaluation or simulation.4-7 Several studies endorsed the higher student
satisfaction with simulation compared to MCQ.8, 9 One of the most difficult task for large
student population evaluation is to obtain representative results in terms of medical skills and
knowledge with a high results variability. In the present study we sought to evaluate medical
student with serious games (SG) compared to MCQ in terms of results variability, result
difference, correlation between results in MCQ and serious game and student satisfaction.
Material and methods
From January to September 2016, we included in two universities of medicine in Paris
(University Paris Descartes and University Denis Diderot) all volunteer medical student with
previous cardiology validation.
Serious game
We used a clinical case from a serious game (FA adventure, Medusims, Paris, France
and iLUMENS, simulation department, Université Sorbonne Paris Cité, Paris, France) about
cardiology focused on atrial fibrillation. The serious game is a free 3D environment with
medical consultation available on computers and tablets. Students can ask questions with key
words, perform clinical examination and electrocardiogram, ask for additional test and
prescribe drugs. Illustration is provided in Figure 1. Questions are systematically asked during
the game about ECG interpretation, risk score calculation and medical treatment. Automatic
detailed correction is given at the end of the game. Results are express with a final note out of
one hundred divided in four sub categories (Clinical examination out of 25, diagnosis out of
25, risk score calculation out of 30 and medical decision out of 20) (Figure 1).
Multiple choice questions:
From the serious game clinical case we build as close as possible MCQ online test
with same clinical presentation and same ECG in 15 MCQ each MCQ had five propositions.
Full points were counted if all propositions are correct. Half points were counted if one
proposition was incorrect and 20% of points were counted is two proposition were incorrect.
No point was counted if three or more propositions was incorrect. Correction was weighted
according to serious game correction between each sub categories. A final note was given out
of one hundred as well.
Satisfaction and student description questionnaires:
Satisfaction questionnaire and student description were specially designed by the
psychologist of medical simulation department of university Paris Descartes, ILUMENS,
Paris, France. Satisfaction questionnaire was prospectively filled in online after the SG and
after MCQ tests. A final student description questionnaire was filled in online assessing the
medical degree and the use of video game in the past history (Figure 2).
Study protocol:
The study protocol was performed at the medical university in informatics
departments of both universities. Students were randomized between two groups to avoid
order bias, group 1 started with SG and finish with MCQ and group 2 started with MCQ and
finished with SG. After each evaluation modalities students had to fill identical online
satisfaction questionnaire. At the end of the protocol students had to filled student description
file online.
Objectives and endpoints
The primary objective of the study was the comparison between the results variability
of students obtained with the MCQ and the Serious Game. The related primary endpoint was
the variance of the results calculated in each test.
The secondary endpoints were the student satisfaction and the correlation between the both
tests results.
Statistical analysis
Summary descriptive statistics are reported as mean and standard deviation,
median (inter quartile range) or counts (%), as appropriate. We used Student t test and Mann-
Whitney test to evaluate difference of continuous variables when appropriate. For variance
comparison, we used Fischer test. For result difference, we used paired Student test. Finally,
correlation coefficient was calculated between results of SG and MCQ using Pearson R2
correlation test. All analyses were performed with SPSS 21.0 (IBM Inc., New York, USA), R
3.3.1 and Prism GraphPad 7.0 (GraphPad Software Inc., CA, USA).
Results
Students description
During the study period we included 68 medical students (34 in each groups). Mean
overall age was 23 ± 1 years old, within the 4.7 ± 1.0 year of medical school among them,
69% were male. All students owned a cellphone, internet connection and computer. Tablet
was possessed by 46% of students video game console by 31%; 88% of students had a past
experience of video games and 32% were currently playing video game for an average
duration of 1.6 ± 3.0 hours per week. No student description difference was found between
groups 1 and 2 (table 1).
Tests results
Result variation between students was significantly higher in SG (24.65%) compared
to MCQ (15.65%) (p=0.009). Histogram results showing this variability are presented in
Figure 3. The overall results for each tests was significantly lower for SG 66.1 ± 16.3
compared to MCQ 75.7 ± 11.8 (p<0.001). No correlation was found between both tests results
with a R2 = 0.048, p=0.58 (Figure 4).
Group analysis
The order of the tests performed had an impact on results with significantly higher
results for the second test in each group: for SG 62.0 ± 15.2 in group 1 versus 70.2 ± 16.5 in
group 2 (p = 0.017) and for MCQ 67.4 ± 8.9 and in group 2 versus 83.9 ± 8.1 in group 1 (p <
0.0001). We performed subgroup analysis for SG student results between current gamer (n=
22; 32%) and non-gamer (n= 46; 68%). No significant difference was observe between gamer
and non-gamer for SG results respectively 65.8 ± 13.3 versus 66.2 ± 17.4 (p = 0.71).
Satisfaction questionnaire
Satisfaction questionnaire showed a significantly higher overall satisfaction for SG. In
addition, students experienced that SG was closer to clinical practice, represented a proper
evaluation and that their knowledge improved after SG compared to MCQ (p < 0.001 for all).
Conversely, students did not experience difference between the two tests modalities in terms
of difficulties of understanding, answering the questions, performance satisfaction, and stress
generated by the test (p value non-significant for all) (table 2).
Why students think that serious game could be interesting to learn medicine:
The questionnaire aimed also to evaluate if students think that serious game is
interesting to learn medicine and why. All students think that serious game could be
interesting to learn medicine. The higher ranking points (>4) were educational quality,
personalized serious game difficulty and availability on smart phone (Table 3). At the end of
the protocol students were free to write online their remarks and comments, raw remarks and
comments are attached in french in the annex.
Discussion
Medical student evaluation is based on tests, most of them include MCQ. These tests
are performed on large student populations, therefore, students ranking might be difficult with
sizable proportion of ex aequo and a limited variation between notes. Our experimentation is
the first to compare SG to MCQ to evaluate results variability for medical students. Our study
showed that SG is associated higher results variability with lower mean results as compared to
MCQ. SG was associated with significantly higher student satisfaction compared to MCQ.
Using SG to evaluate medical students was better in discrimination with higher
satisfaction. Comparable SG results was observed between gamer and non-gamer students.
Thus, SG had a novel dimension in medical evaluation by assessing medical skills improved
by simulation.
Interestingly, our study did not find correlation between both tests results, meaning
that succeed to MCQ is not predicting to succeed in SG and vice versa. This finding might
suggest that good results in SG is due to the difference in terms of medical skills
independently from pure medical knowledge. If SG is considered as closer to medical, this
finding questions the effectiveness of MCQs to evaluate medical students.
SG had several potential advantages to evaluate medical students. First, SG
exemplifies the human desire for play, allowed self-assessment, mastering challenges and
“been taken into the game”, therefore medical knowledge and skills are easily transmitted
with a better retention. Second, simulation programs have a high cost and are time consuming
which limited the access to a larger medical student population while medical SG are widely
available with a lower cost. Serious games also contribute to increase realism of clinical
situations training10 and evaluate both medical knowledge and competence with simulation
and open actions in 3D environment.11 Third, higher variability and satisfaction lead to a
natural better evaluation feel like more representative of student evaluation than MCQ. It is
noteworthy that SG production is expensive, in the other hand since 3D environment is
already created it is less expensive to build new SG with same environment and scenarios are
time consuming but could be largely diffuse in medical student community.
We acknowledge several limitations in our study. We found an order bias in our study,
the second test was associated with better results because of similar questions student answer
retention and indirect access to the corrections, however we believe that randomization in two
similar groups allowed us to have reliable conclusions. We included volunteer students, thus
we cannot exclude that included students were of interest in SG, therefore generalization of
our conclusions have to be taken with caution. Although, we planned a larger incoming study
to evaluate all medical students from medicine universities in tablets with SG compared to
MCQ.
Conclusion
Serious game represents a new evaluation modality for medical student. Our study
showed that SG is more effective to discriminate medical students with a higher variability of
performance. In addition, SG was associated with a higher student satisfaction compared to
MCQ.
Figure and table legends:
Figure 1: Serious Game illustration in french. Upper panel show the serious game interaction 3D environment for clinical examination. Lower panel show how to prescribe (left part) and how are express the results (right part). Figure 2: Flow chart
Figure 3: Histogram tests results upper panel. Gaussian regression fit lower panel.
Figure 4: Individual tests results in the upper panel and correlation coefficient in the lower panel. Table 1: Student description. Table 2: Satisfaction questionnaire. Table 3: Why students think that serious game could be interesting to learn medicine?
References
1. LiuQ,PengW,ZhangF,HuR,LiYandYanW.TheEffectivenessofBlendedLearninginHealth
Professions:SystematicReviewandMeta-Analysis.JMedInternetRes.2016;18:e2.
2. MenetA,AssezNandLacroixD.Crossanalysisofknowledgeandlearningmethodsfollowed
byFrenchresidentsincardiology.Archivesofcardiovasculardiseases.2015;108:420-7.
3. Ryall T, Judd BK and Gordon CJ. Simulation-based assessments in health professional
education:asystematicreview.Journalofmultidisciplinaryhealthcare.2016;9:69-82.
4. GordonJA,OriolNEandCooperJB.Bringinggoodteachingcases"tolife":asimulator-based
medicaleducationservice.AcadMed.2004;79:23-7.
5. ScoullierK.The influenceofassessmentmethodonstudents’ learningapproaches:Multiple
choicequestionexaminationversusassignmentessay;1998.
6. Palmer EJ and Devitt PG. Assessment of higher order cognitive skills in undergraduate
education:modifiedessayormultiplechoicequestions?Researchpaper.BMCMedEduc.2007;7:49.
7. Scalese RJ, Obeso VT and Issenberg SB. Simulation technology for skills training and
competency assessment inmedical education. Journal of general internalmedicine. 2008;23 Suppl
1:46-9.
8. WahlgrenCF,EdelbringS,ForsU,HindbeckHandStahleM.Evaluationofaninteractivecase
simulationsystemindermatologyandvenereologyformedicalstudents.BMCMedEduc.2006;6:40.
9. SolymosO,O'Kelly P andWalsheCM.Pilot study comparing simulation-basedanddidactic
lecture-basedcriticalcareteachingforfinal-yearmedicalstudents.BMCAnesthesiol.2015;15:153.
10. JohnsenHM,FossumM,Vivekananda-SchmidtP,FruhlingAandSletteboA.Teachingclinical
reasoning and decision-making skills to nursing students: Design, development, and usability
evaluationofaseriousgame.IntJMedInform.2016;94:39-48.
11. Virvou M KG, Manos K. Combining Software Games with Education: Evaluation of its
EducationalEffectiveness..EducationalTechnologyandSociety.2006;8:54-65.
Figure 1: Serious Game illustration in french.
Figure 2: Flow chart
Figure 3: Histogram tests results upper panel. Gaussian regression fit lower panel.
Figure 4: Individual tests results in the upper panel and correlation coefficient in the lower panel.
Table 1: Student description
Student description n = 68 Overall Group 1 Group 2 Comparison
between
groups 1 and 2
(P value)
Sex (Male) 69 % 49 % 34 % 0.33
Age (year) 23 ± 1 23 ± 1 23 ± 1 0.26
Year of medical school (year) 4.7 ± 1.0 4.7 ± 0.8 5.1 ± 0.9 0.08
Cardiology internship within the past 12 months 73 % 40 % 54 % 0.34
Cell phone with internet connection possession and social network account 99 % 97 % 100 % 1.00
Tablet possession 46 % 39 % 54 % 0.20
Computer with internet connection possession 100 % 100 % 100 % 1.00
Video game console possession 31 % 42 % 20 % 0.07
Past video game experience 88 % 83 % 94 % 0.26
Age of first video game experience (years) 9 ± 3 9 ± 3 9 ± 3 0.51
Currently playing video games 32 % 40 % 26 % 0.31
Hours of video game per week 1.6 ± 3.0 1.9 ± 3.7 1.3 ± 2.1 0.65
Table 2: Satisfaction questionnaire
Questions Serious game MCQ P value
Did you feel difficulties to answer to the questions ? 2.18 2.21 0.89
Did you feel focus to answer to the questions ? 3.93 3.71 0.15
Did you think that this test is close to clinical reality ? 4.21 2.68 <0.0001
Did you feel this test stressful ? 2.51 2.30 0.24
Did you understand the goal of the test ? 4.24 3.97 0.10
Do you consider this kind of test represent a proper evaluation ? 3.91 3.04 <0.0001
Did you feel satisfied about your test performance ? 3.05 3.22 0.41
Did you think that your knowledge progress after this test ? 3.56 2.42 <0.0001
Are you satisfied about this way of evaluation ? 3.88 2.98 <0.0001
Results are express as mean of numeric ordinal variable from 1 the worse to 5 the best.
Table 3: Why students think that serious game could be interesting to learn medicine?
Why students think that serious game could be interesting to learn medicine Serious game
If serious game have a high educational quality 4.86
If we feel connected or attached to the serious game 3.60
If we can play with other students 3.26
If we can compare our results with other students 3.44
If serious game is fun 3.37
If serious game is original, innovative or new 3.90
If serious game difficulty is personalized 4.36
If serious game is available on smart phone 4.00
Annex Students comment and remarks in french
Annex 1. Pourquoi les jeux vidéo sérieux (des jeux vidéo qui ont pour but d’enseigner des choses sérieuses) sont intéressants pour enseigner la médecine ?
Situation plus réelle
meilleure simulation
pour être plus spontanée dans les choix de questions / d'examens... à faire face à un patient
entrainement à la mise en pratique des connaissances
ludique, peu stressant mais didactique, possibilité d'interaction simulation, mise en situation réelle. Meilleure évaluation des compétences médicales et meilleure préparation à l'internat. De plus, le développement de cette méthode d'évaluation est très légitime car à l'étranger, les étudiants en médecine sont aussi évalués par simulation (jeux de rôles et sur mannequins, examens oraux ) (angleterre)
On se sent beaucoup plus concerné et on est plus proche de ce que l'on voit dans la réalité. Mise en condition reelle +++ Interrogatoire très bien avec les mots clés ! Pour l'examen clinique, peut etre mettre plus de choix comme pour les examens complémentaires pour qu'il y ait un vrai choix à faire. Le QCM va etre biaisé puisqu'on connaissait les reponses. Très bonne idée, a rendre obligatoire en fin de trimestre mais pas forcément en partiels Mise en conditions bien plus réelles que des QCM et difficultées rencontrées plus marquantes => plus pédagogique, et plus représentatif de mes difficultées
comme dans la vraie vie, force à refléchir
utilisation de contenus multimédias, possibilité de poser des questions, même non pertinentes
bonne mise en situation Oui car ils nous mettent dans des situations cliniques proches de la réalité mais il me paraît difficile de rendre compte de la complexité des patients que nous rencontrons. Plus réalistes que les dossiers, on acquiert des réflexes à avoir dans la vraie vie contrairement aux dossiers où on est assez passif dans un sens puisque qu'on doit seulement choisir entre plusieurs réponses
autre manière de retenir les connaissances
Oui pour enseigner, mais je ne suis pas pour l'évaluation de cette manière.
Apprendre tout en s'amusant
MANIERE LUDIQUE D'APPRENDRE
C'est plus interactif que de cocher des cases de QCM
Permet une evaluation au fur et a mesure Permet d'être à mi chemin entre la réalité d'une salle de consultation et la théorie des livres. ça me semble un bon compromis. Par ailleurs, ça permet d'apprendre d'une autre manière.
Simulation
Meilleurs reflet de notre pratique clinique
ils permettent de mettre l'étudiant en situation Cela permet d'appliquer de manière beaucoup plus concrete qu'en cas clinique. Le "souci" de cette méthode est qu'elle risque (du moins au début) de rallonger les temps d'enseignement. Et ça ne compense pas la masse énorme de connaissances à acquérir, qu'il faut bien "potasser" à un moment ou a un autre.
mise en situation, mot-clés, représentation plus facile du problème posé.
mise en situation
Ludique, probablement plus proche de la réalité.
Ludique, reflet de la réalité et mise en situation +++++ Plus interactif - permet de mieux capter l'attention des participants. Permet de "faire" (via le jeu vidéo) - donc un peu moins théorique et plus pratique. Car ça permettrait d'une façon ludique et relaxante d'apprendre quelque chose qui nous intéresse. Augmentation du plaisir d'apprendre. Plus facile pour visualiser les situations et les cas cliniques auquels le
médecin est confronté.
Pas sous cette forme du moins : -Longueur dans la mise en place (le patient qui se lève, qui se deshabille, ect..) -Réponse trop fermé : j'ai mis "repos, dormir, se reposer" impossible d'avoir des informations sur la douleur de repos -Si l'on mettait "avez-vous... ?" on avait accès à 50% des réponses. reflète notre comportement face a un patient, et permet de poser des questions qui nous apportent une aide diagnostique, sans pour autant connaitre parfaitement ses cours. par rapport a un DP, on est moins guidés et c'est plus représentatif de la médecine qu'on apprend en stage Meilleur enseignement et évaluation de la pratique médicale par rapport aux dossiers progressifs. Meilleure immersion. Ne pose plus le problème du sous-entendu de la question (quelles réponses attend le correcteur), mais évalue directement la capacité à prendre en charge un patient de façon optimale. C'est une autre manière de voir ses cours, dans une ambiance un peu plus détendu et qui nous plonge un peu mieux dans l'univers médical, surtout quan on en n'a jamais fait l'expérience.
Réponses moins binaires qu'en QCM
original
ludique, mise en situation réaliste
Permettent d'évaluer la connaissance pratique et nous mettre en conditions reelles d'exercice Simulation de situations plus réalistes, meilleur autonomie plutôt que les propositions soient suggérées à l'étudiant (type QCM), ajoute une composante stress on est plus proche de la réalité que des qcm, ce sont des situations techniques qu'on retient mieux, meilleur apprentissage et en plus plus ludique. Bcp de choses sont oubliés dans la pratique clinique à travers les qcm qu'on voit mieux dans cette approche plus ludique avec l'examen clinique par exemple qu'en on est pas passé en cardiologie mise en situation de consultation apprentissage de l'interrogatoire +++ plus le reflet de la réalité, plus didactique, plus intéressant que des qcms même progressif permet de voir la médecine dans des conditions bien plus réelles que celle des cm, de se plonger dans la situation. Beaucoup plus concret Correspondent beaucoup mieux à la vie réelle et à la mise en situation. mise en situation ludique, animé, possibilité d'être proche d'une situation réelle on a beaucoup plus l'impression d'être dans la réalité Ludique, moins stressant, concentration plus facile Intéractif ils permettent une simulation de la réalité clinique par exemple apprentissage visuel Les jeux vidéo pourraient simuler la réalité entre le médecin et le patient Elles permettent de s'approcher le plus possible de la réalité l'idée est intéressante, mais que ce soit en jeu vidéo ou dans un examen classique un vrai interrogatoire reste difficile à simuler. on se sent très loin de la vie réelle. De plus on est tenté de faire tout ce qu'on nous propose pour l'examen clinique et il est difficile de dire qu'il est faux de faire un examen clinique complet, il faudrait donc peut etre nous faire dire ce qui est important pour la pathologie donnée et nous proposer un plus large choix de choses à faire. Pour l'ordonnance on se sent par contre dans la vraie vie. plus attractif que l'enseignement par les livres Le jeu tel que proposé là permet de bien mieux évaluer les réflexes et automatismes que l'on doit avoir par rapport à une évaluation QCM. Le fait d'entendre l'auscultation est très intéressant et permet de progresser en se faisant évaluer. Permet d'avoir une évaluation plus interactives, plus concrète, plus proche de la réalité à l'hopital Plus proche de la réalité, evolution comme en consultation Ludique et réaliste. situations proches de la vie reelle il s'agit d'une forme audiovisuelle permettant également un apprentissage possible Immersion dans la pratique. Plus "réel" captivant, stimulant, amusant Il est plus facile d'apprendre de manière ludique. Un jeu vidéo bien fait est assez marquant. Outil interactif, ludique, connu des étudiants
Parce que c'est intératif plus similaire à la réalité plus ludique, sortir des livres Immersifs, plus concret, plus proche de la réalité
Annex 2. Avez-vous des remarques dont vous souhaiteriez nous faire part ? manque de questions
la motivation principale, pour un serious game, c'est de savoir que la prise en charge de la correction est fidèle aux recommandations, que l'on pourra apprendre telle quelle à l'issue du cas clinique peut etre les développer pour les séances de TD !! Biais du sides post jeu video puisqu'on a la correction. Merci et Bravo ! Excellent initiative à poursuivre et à développer !!! le jeu vidéo est plus un mode d'enseignement intéressant qu'un mode d'évaluation. Il faudrait nous pénaliser lors de la prescription d'examens non utiles au diagnostic. je ne pense pas qu'un trop grand réalisme graphique du jeu apporte vraiment aux étudiants, c'est le réalisme du scénario et la place laissé à l'initiative qui font l'intérêt du jeu d'un point de vu pédagogique mais aussi ludique. L'auscultation pulmonaire et cardiaque ne reflétait pas la réalité. Peu d'intérêt de faire le cas sur Sides après le jeu vidéo Difficile de poser des questions pour l'interrogatoire vs la réalité en consultation Je pense que le jeu vidéo d'évaluation est facilement compréhensible même pour un non-joueur. jeux videos = echec Continuez , je trouve que c'est une excellente initiative ! on connaissait les réponses pour le QCM ! on est trop indicés par les mots clés. Vive la cardio ! CE concept est juste génial. Cependant, qques remarques : il faut absolument accélérer les transitions entre les actes médicaux, les gestes d'auscultation, le passage à l'examen clinique. Aussi, il faudrait une liste + exhaustive des questions posables, et je trouve dommage qu'une liste de questions s'affiche directement lorsque l'on tape un mot mais l'idée de trouver soi même le mot clé est topissime. Sinon, il faudrait pouvoir organiser le receuil des signes de l'examen clinique (interrogatoire ++) en suivant un plan qui s'étblirait progressivment dans le varnet, et pas les infos en vrac comme ça l'est. Sur la simulation, il manque du vocabulaire qui restreint la facon de poser des questions et on n'obtient pas forcément ce qu'on veut comme réponses. Simulation de très bonne qualité bravo non 1) il y a peut-être trop d'indices dans le scénario de la FA (par exemple: les scores sont proposés alors que je n'y aurais pas forcément pensé toute seule. ou encore: je n'aurais pas pensé à faire une ETT).
2) les QCM du SIDES sont mal formulés: que recherchez vous "en premier" à l'interrogatoire. On ne comprend pas ce que cela veut dire: voulez-vous que l'on réponde les signes de gravité? les symptômes les plus fréquemment associés? pas claire...
3) sur le plan pédago: vous mêlez "rétablir" et "maintenir" le rythme sinusal dans le même QCM. Cela embrouille et ne permet pas de distinguer les anti-arythmiques des ralentisseurs cardiaques, aspect parfois déjà compliqué à comprendre dans la FA
4) dans FA adventure: super de devoir se débrouiller seul pour l'interrogatoire! cela met face à "la page blanche" que nous ne connaissons plus, à cause de la méthode "QCM" qui nous propose sans cesse des réponses, sans que nous réfléchissions par nous même. chapeau!
5) à propos de vos questionnaires d'évaluation: je ne comprends pas ce que vous voulez dire par la première question "avez vous rencontré des difficultés dans la manière de répondre aux questions?". voulez-vous parler de difficultés de connaissances sur l'item en question, ou de difficulté de compréhension de l'exercice attendu?
Ne pas proposer toutes les questions possibles lorsqu'on met un mot clé, car du coup on voit des questions qu'on aurait oublié de demander si on ne les avait pas vues. Améliorer la compréhension directe de notre question.
Sinon c'est vraiment top, beaucoup mieux adapté à la vie réelle de "nous seul face à notre patient" et à la vraie évaluation de nos connaissances. bravo! Concernant le logiciel, certains questions que j'aurai voulu poser n'était pas proposée, cela peut dire 2 choses, soit que la question que je voulais poser n'était pas adéquat et donc j'étais orienté sur le fait qu'elle l'état alors que dans la réalité je ne l'aurai pas su, soit il n'y a pas assez de question possible dans le jeu. Sinon je trouve que c'est une très bonne initiative. Peut être avoir la possibilité de passer les cinématiques qui peuvent être un peu lente. Concernant les QCM, pour certaines question il état difficile de savoir comment y répondre, notamment concernant l'examen clinique et ce que l'on cherche en premier, l'intitulé appelle plutôt à cocher une case que plusieurs Bon courage ! Super idée, super initiative, on ne peut vraiment qu'espérer que nos évaluations prennent cette forme à terme. Deux remarques toutefois : attention à l'accessibilité de l'information (j'ai voulu demander la dyslipidémie, mais je ne l'ai pas trouvé). De plus, si la réalité clinique est impressionnante je me demande comment évaluer des connaissances précises comme des syndromes congénitaux, etc... qui bien qu'ils ne soient pas cruciaux pour la pratique clinique ont quand même un intérêt dans la médecine. Mais c'est mon intérêt personnel. Jeu bien fait mais un peu trop lent, la marche au début, l'auscultation pulmonaire.. Mais bon initiative, très bonne idée, à développer ++, peut être utile pour des diagnostics fréquents pour mieux étudier la prise en charge proposer un jeux qui peut se jouer, sur un nombres important de support, telephone, ordinateur, tablette et qu'on puisse passer d'un support à l'autre