Diseño factorial para selección de modelo de reconocimiento de emociones mediante inteligencia artificial
DOI:
https://doi.org/10.53591/easi.V3i2.2617Palabras clave:
Aprendizaje Supervisado, Inteligencia Artificial, Análisis de Varianza, Diseño Factorial.Resumen
El presente artículo estudia el efecto de algunos hiperparámetros de entrenamiento supervisado (número de épocas, tamaño de lote y tasa de aprendizaje) en el desempeño de un modelo de inteligencia artificial para el reconocimiento de cinco emociones a partir de imágenes de rostros. Se usó un diseño factorial completo, con 60 combinaciones que se corrió 12 veces, dando lugar a 720 experimentos desarrollados en la plataforma Teachable Machine de Google. La variable dependiente corresponde al porcentaje de precisión en la identificación de las emociones. Los datos fueron analizados mediante un análisis de varianza de cuatro vías y pruebas post hoc. Los resultados muestran que variar la tasa de aprendizaje de 0.0001 a 0.001 incrementa la precisión en un 46%, usar mayor número de lotes mejora la precisión en un 41% y que el cambio de tamaño del lote tiene el menor efecto de mejoramiento y aumenta la variabilidad. En cuanto a las emociones, la neutral fue la mejor identificada y tristeza la peor. El análisis estadístico confirmó diferencias significativas entre los niveles de los factores y sus interacciones. Se concluye que seleccionar adecuadamente los hiperparámetros de entrenamiento supervisado es determinante en el mejoramiento del desempeño del modelo de inteligencia artificial.
Referencias
Aliyev, I., Muradova, G., Aliyeva, S., Mustafazada, S., Smambayev, Z., & Shamoi, P. (2025). Public perception of feminism using sentiment and emotion analysis. IEEE 5th International Conference on Smart Information Systems and Technologies (SIST), 1–8. Astana, Kazakhstan. https://doi.org/10.1109/SIST61657.2025.11139321
Baek, C., Song, J. W., & Kong, K. (2025). Low-light face recognition for mobile robots. 2025 International Technical Conference on Circuits/Systems, Computers, and Communications (ITC-CSCC), 1–5. Seoul, Republic of Korea. https://doi.org/10.1109/ITC-CSCC66376.2025.11137701
Balakrishnan, S. G., Tamizh Selvan, S., Venkatesh, R., Vignesh, G. V., & Vishwa, P. (2025). Enhanced two step authentication system for ATM using multimodal facial recognition. 6th International Conference on Data Intelligence and Cognitive Informatics (ICDICI), 1–8. Tirunelveli, India. https://doi.org/10.1109/ICDICI66477.2025.11134970
Dong, X., Zhao, B., Mojaver, K. R., Liboiron-Ladouceur, O., & Meyer, B. H. (2025). Low-power face recognition using joint optical and electronic deep neural networks. IEEE Embedded Systems Letters. https://doi.org/10.1109/LES.2025.3604285
Dutta, S., & Ganapathy, S. (2024). Leveraging content and acoustic representations for speech emotion recognition. IEEE Transactions on Audio, Speech and Language Processing, 1–11. https://doi.org/10.1109/TASLPRO.2025.3603853
Harrath, Y., Bhutta, M., Adohinzin, O., & KC, N. (2025). Optimized face recognition using reinforcement learning and deep learning feature extraction. 11th International Conference on Big Data Computing Service and Machine Learning Applications (BigDataService), 218–225. Tucson, AZ, United States. https://doi.org/10.1109/BigDataService65758.2025.00040
Honcharenko, T., Dolhopolov, S., Sachenko, I., Achkasov, I., Fesan, A., & Paliy, S. (2025). Automated face recognition system using convolutional neural network. IEEE 5th International Conference on Smart Information Systems and Technologies (SIST), 1–4. Astana, Kazakhstan. https://doi.org/10.1109/SIST61657.2025.11139261
Igor, E., Toganas, N., & Shamoi, P. (2025). Emotion classification in digital art using color features and machine learning. IEEE 5th International Conference on Smart Information Systems and Technologies (SIST), 1–6. Astana, Kazakhstan. https://doi.org/10.1109/SIST61657.2025.11139293
Jinsha, K. S., & Bai, V. R. (2025). Emotion detection from distorted images using optimized CNN & GAN. 4th International Conference on Advances in Computing, Communication, Embedded and Secure Systems (ACCESS), 908–914. Ernakulam, India. https://doi.org/10.1109/ACCESS65134.2025.11135594
Li, H., Xu, Y., Yao, J., Wang, N., Gao, X., & Han, B. (2025). Knowledge-enhanced facial expression recognition with emotional-to-neutral transformation. IEEE Transactions on Multimedia, 1–20. https://doi.org/10.1109/TMM.2025.360491
Li, N., Shen, X., Sun, L., Xiao, Z., Ding, T., Li, T., & Li, X. (2023). Chinese face dataset for face recognition in an uncontrolled classroom environment. IEEE Access, 11, 86963–86976. https://doi.org/10.1109/ACCESS.2023.3302919
Meng, S., Liu, P., Mei, X., & Jiang, J. (2024). Facial negative emotion recognition of special employees based on machine vision. 8th International Workshop on Control Engineering and Advanced Algorithms (IWCEAA), 135–138. Nanjing, China. https://doi.org/10.1109/IWCEAA63616.2024.10823939
Meng, S., Liu, P., Mei, X. and Jiang, J. (2024, November 01-03) Facial Negative Emotion Recognition of Special Employees Based on Machine Vision. 8th International Workshop on Control Engineering and Advanced Algorithms (IWCEAA), (pp. 135-138). Nanjing, China, https://doi.org/10.1109/IWCEAA63616.2024.10823939
Otarbay, Z., Kyzyrkanov, A., Tursynova, N., Turginbekov, A., Saltanat, A., & Amirov, A. (2025). Improving Electroencephalography-Based Emotion Recognition via Transformer Networks for Subject-Independent Classification. IEEE 5th International Conference on Smart Information Systems and Technologies (SIST), 1–6. Astana, Kazakhstan. https://doi.org/10.1109/SIST61657.2025.11139359
Ritharson, P. I., Vidhya, K., Madhavan, G., Barath, D., & Sathish Kumar, K. (2023). GAN-based facial feature reconstruction for improved masked face recognition during COVID. 2023 International Conference on Circuit Power and Computing Technologies (ICCPCT), 1–5. Kollam, India. https://doi.org/10.1109/ICCPCT58313.2023.10245882
Septiani, D., Wahyono, & Adhinata, F. D. (2025). Face recognition underage progression using hybrid features of textures and geometric. 2025 International Workshop on Intelligent Systems (IWIS), 1–6. Ulsan, Republic of Korea. https://doi.org/10.1109/IWIS66215.2025.11142411
Yadav, U., Bondre, S., Thakre, B., & Likhar, K. (2024). Speech-to-text emotion detection system using SVM, CNN, and BERT. 2024 IEEE International Conference on Smart Power Control and Renewable Energy (ICSPCRE), 1–5. Rourkela, India. https://doi.org/10.1109/ICSPCRE62303.2024.10675267
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2026 Anny Astrid Espitia Cubillos, Robinson Jiménez-Moreno

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
Las contribuciones publicadas en la revista EASI se rigen por la licencia de acceso abierto CC BY-NC-ND 4.0 (Creative Commons Reconocimiento-NoComercial-SinDerivadas 4.0). Esta licencia te empodera como autor, y garantiza la amplia difusión de tu investigación mientras protege tus derechos.
Para autores:
- Los autores pueden reproducir y distribuir la obra en cualquier formato no comercial, siempre que la obra indique los autores y datos de la revista EASI, y no contravenga los puntos mencionados en el apartado de los permisos y prácticas editoriales.
- La revista obtiene una licencia para publicar y distribuir el manuscrito original.
Para lectores/usuarios:
Acceso y distribución gratuita: cualquier lector o usuario puede acceder, descargar, copiar, imprimir y compartir el artículo publicado libremente según los términos de la licencia CC BY-NC-ND 4.0.
Reconocimiento obligatorio: si un tercero utiliza el material publicado, debe dar crédito al creador proporcionando el nombre, el título del artículo y el nombre de la revista, lo que garantiza la propiedad intelectual del autor(es) y ayuda a construir su reputación académica.
Uso no comercial: solo se permite el uso no comercial del trabajo publicado. No comercial significa que no está destinado principalmente ni dirigido al aprovechamiento comercial o la compensación monetaria por parte de ningún tercero.
No se permiten modificaciones: el contenido del artículo publicado no se puede cambiar, mezclar o reconstruir a partir del trabajo del autor. Esto asegura la integridad y precisión de los resultados de la investigación.







