- Luis Ángel Guzmán Iribe - A01741757
- Julian Lawrence Gil Soares - A00832272
- Alberto H Orozco Ramos - A00831719
- Ivan Mauricio Amaya Contreras
- Blanca Rosa Ruiz Hernandez
- Antonio Carlos Bento
- Frumencio Olivas Alvarez
- Hugo Terashima Marín
Durante las diversas etapas de desarrollo de este proyecto, que abarcan desde la identificación de la problemática hasta el análisis y preparación de los requisitos y los datos correspondientes, así como el establecimiento de algoritmos de Machine Learning, su codificación, revisión e implementación, se persigue alcanzar una resolución satisfactoria, precisa y coherente basada en los recursos proporcionados. Esto se logrará mediante el uso de modelos matemáticos y estadísticos válidos que respalden y otorguen mayor veracidad a los datos generados por nuestro modelo.
Adicionalmente, se tiene como objetivo la implementación de herramientas y bibliotecas, como Pandas, Matplotlib y otras, para respaldar la visualización de los resultados obtenidos, teniendo en cuenta las tesis desarrolladas de manera teórica, asegurando así su coherencia y viabilidad.
En las etapas finales del primer proyecto, se anticipa que el modelo de Machine Learning brindará resultados cercanos a los datos reales, habiendo aplicado los métodos más óptimos para su implementación.
-
Evidencia 3. Solución reto - Equipo 2: Reporte final que engloba todo el trabajo realizado a lo largo del proyecto.
-
Limpieza de Datos: Dentro de esta carpeta encontrarán el primer entregable de nuestro equipo para el reto del Titanic. Tenemos un Jupyter Notebook donde describimos y justificamos nuestro proceso de limpiar los datos así como los datos que nos quedaron después del proceso de limpieza.
- Archivo README: README.md
- Código en Jupyter Notebook de Limpieza de Datos: clean_training_data.ipynb
- Archivo CSV de la Base de Datos del Titanic (Kaggle): train.csv
- Output CSV de la Base de Datos del Titanic limpia: train_clean.csv
-
Selección, configuración y entrenamiento del modelo: Dentro de esta carpeta se encuentra el segundo entregable del reto del Titanic. Tenemos un Jupyter Notebook donde implementamos varios modelos de regresión con la meta de encontrar el modelo que utilizaremos para la solución del reto.
- Archivo README: README.md
- Base de Datos del Titanic limpia: train_clean.csv
- Código en Jupyter Notebook de la Selección de Modelos: Configuracion_Modelos.ipynb
-
Selección, configuración y entrenamiento del modelo: Dentro de esta carpeta se encuentra el tercer entregable del reto del Titanic. Se puede encontrar un Jupyter Notebook donde implementamos un algoritmo grid search con fin el fin de encontrar los parámetros óptimos para nuestro modelo predictivo.
- Archivo README: README.md
- Base de Datos del Titanic limpia: train_clean.csv
- Código en Jupyter Notebook del refinamiento del modelo: Reto_Redes_Neuronales_Refinado.ipynb
-
Momento de Retroalimentación - Reto: Limpieza del Conjunto de Datos
- Archivo README: retro/Limpieza de Datos/README.md
- Código en Jupyter Notebook de Limpieza de Datos: Limpieza de Datos/clean_training_data.ipynb
- Archivo CSV de la Base de Datos del Titanic (Kaggle): Limpiieza de Datos/train.csv
- Output CSV de la Base de Datos del Titanic limpia: Limpieza de Datos/train_clean.csv
-
Momento de Retroalimentación: Reto Selección, configuración y entrenamiento del modelo
- Archivo README: README.md
- Base de Datos del Titanic limpia: train_clean.csv
- Código en Jupyter Notebook de la Selección de Modelos: Configuracion_Modelos.ipynb
-
Momento de Retroalimentación: Reto Evaluación y Refinamiento de modelo
- Archivo README: README.md
- Base de Datos del Titanic limpia: train_clean.csv
- Código en Jupyter Notebook de la Selección de Modelos: Reto_Redes_Neuronales_Refinado.ipynb