-
Notifications
You must be signed in to change notification settings - Fork 461
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Cómo medir empíricamente los resultados de cambios en formatos de README y la curricula, de cara a estudiantes #1242
Comments
Una de las primeras cosas que se me ocurre es poder levantar feedback de nuestras usuarias, en ese caso tendríamos que preparar algún tipo de formulario que preguntara cosas con respecto a su experiencia en el proyecto, qué feedback podemos obtener del README, con respecto a la claridad de la información, a la utilidad de esta, etc... y contrastar las respuestas de aquellas que tuvieron la "versión anterior" con las que tuvieron la nueva. También se me ocurre preguntar a lxs coaches que hayan pasado por cohorts con ambas versiones, a ver si notaron alguna diferencia en primer lugar (las estudiantes de demoran menos en hacer el proyecto? por ejemplo) y en segundo qué feedback podrían entregarnos. ¿Qué opinan? |
SI - quiza podemos hacer un formulario tambien para los coaches para hacerlo asinc? |
De acuedo con pedir feedback a estudiantes. El problema es que ¿cómo sabes lo que no sabes?. Es decir, ¿qué feedback espero de quien ha viso solamente UNA versión? (la cavern de Platón). Yo opino que habría que pensar alrededor de:
|
Notas de weekly devs:
|
Estoy retomando esta conversación. Pedi consejos de UX para técnicas de feedback - estoy esperando respuesta.
Puedo intentar a crear un dashboard para comparar proyectos entre cohort. O crees que podemos sacar estes numeros mas o menos facil con los dashboards que hay? Un periodo de observacion puede ser entre 3/4 cohorts (no se si este es 2 meses). |
De UX (Astrid me comento su proceso de feedback)
En verdad no se si tenemos los recursos hacer algo tan presencial. Quiza podemos agregar algunas cosas a Project Checkout o pedir algunos retros cortos. |
Un método propuestoPara Issues que tiene cambios de contenido, pensamos en la problema, hipótesis, resultados esperados y como medirlos. Agregamos eso en la descripción de issue para podemos trackear el experimento. Seguimos un poco de este formato. Ideas para feedback "objetivo" con data: Usando el dashboard SCO detail, comparamos un cohort anterior (antes de los cambios a un proyecto) con un cohort que tiene un readme / proyecto con cambios, y aislamos el proyecto afectado (por ejemplo Nivel 1 Card Validation)
Para feedback qualitativa: Viendo el metodo de UX, dudo si tenemos el tiempo para hacer retros en bootcamp y obtener feedback. Otros ideas:
Un periodo de observación puede ser entre 3 cohorts (o max un mes ?). |
Hola @unjust !!!
Podemos ahcer una matriz de validación de hipótesis para cada expderimento, indicando la versión (¿hay versión @mfdebian ?) y cómo se valida o refuta la hipótesis. Acá un ejemplo de algo que hemos estado (desde hace meses de meses) pensando que sea el modo default para todo este tipo de experimentaciones: https://github.com/Laboratoria/dashboards/tree/main/studies |
así es! los proyectos que crean las coaches para las estudiantes ahora incluyen información de cuál es la versión del proyecto de Bootcamp con la cual se está creando. estoy de acuerdo con que nos ayudará a hacer las mediciones, siempre y cuando efectivamente las coaches que creen esos proyectos, tengan su rama main al día. |
@mfdebian @diegovelezg Piensan es buen idea hacer encuestas como parte de PCO tambien? O solo usar SCO data? |
Aqui es la recomendacion por ahora https://github.com/Laboratoria/bootcamp/issues/1242#issuecomment-1494627738 |
Que podemos hacer para obtener feedback/verificar que los cambios de un README o proyecto son buenos para las estudiantes?
Hay algunos cambios que nos parecen mejor pero seria bueno tener algun data o testeo de usabilidad para verificarlo.
@diegovelezg @mfdebian
The text was updated successfully, but these errors were encountered: