Clasificación de imágenes prácticas con keras:
- Hola Colab
- Clasificación de imágenes
- Visualización de características previas
- Transferir el aprendizaje
- Búsqueda de imágenes basada en características
01 hellocolab.ipynb
Demostración básica de colab


02 imageClassification.ipynb
En este código, vamos a implementar un clasificador de imagen básico:
- Cargue el conjunto de datos (dígitos escritos a mano de Mnist)
- Diseñar un modelo de aprendizaje profundo e inspeccionar sus parámetros aprendibles
- Capacite al modelo en los datos de capacitación e inspeccione las curvas de aprendizaje
- Evaluar el modelo capacitado en los datos de pruebas nunca vistos
- Guardar el modelo para su uso posterior
- Cargar y usar el modelo

03 PrainedFeatureViz .ipynb
En este código vamos a cargar redes de clasificación de imagen previa a la imagen
Luego, utilizando una red previa a la aparición , la extracción de características y la visualización se realizan a través de T-SNE

04 Transferlearning.ipynb
En el aprendizaje de transferencia, nos gustaría aprovechar el conocimiento aprendido por una tarea de origen para ayudar a aprender otra tarea objetivo. Por ejemplo, una red de clasificación de imágenes rica y bien entrenada podría aprovecharse para otra tarea relacionada con el objetivo de imagen. Otro ejemplo, el conocimiento aprendido por una red capacitado en un entorno simulado puede transferirse a una red para el entorno real. Básicamente, hay dos escenarios básicos para el aprendizaje de transferencia de redes neuronales:
- Extracción de características
- Sintonia FINA
Un ejemplo bien conocido para el aprendizaje de transferencia es cargar la red VGG de clasificación a gran escala ya entrenada que puede clasificar las imágenes en una de las 1000 clases, y usarla para otra tarea, como la clasificación de imágenes médicas especiales.
05 FeatureBasedImagesearch.ipynb
Motores de búsqueda de imágenes: en términos generales, el motor de búsqueda generalmente toma una consulta y devuelve resultados. Los motores de búsqueda de imágenes toman una imagen de entrada como una consulta de imagen, luego el motor de búsqueda de imágenes encuentra las imágenes "similares" dentro de su base de datos indexada y las devuelve como resultado de la búsqueda. ¿Cómo medir la similitud entre dos imágenes?
- Espacio de píxeles : una forma simple es medir la distancia euclidiana entre las dos imágenes en el espacio de píxeles. En consecuencia, si dos imágenes tienen valores comunes o cercanos para los píxeles correspondientes, se consideran "similares". Esto podría funcionar algunas veces, sin embargo, un delfín y imágenes de avión de aire con fondos azules se considerarán similares desde el punto de vista de los píxeles, ¡y no queremos eso!
- Espacio de características : otro enfoque es usar el espacio de características en lugar del espacio de píxeles al calcular la distancia euclidiana entre las dos imágenes. En otras palabras, proyecte las imágenes en un espacio donde las imágenes con características similares están cerca de las demás. En este espacio, los delfines y los aviones se separan a pesar de la similitud de nivel de píxeles.

