InGenio Journal
Revista de Ciencias de la Ingeniería de la Universidad Técnica Estatal de Quevedo
https://revistas.uteq.edu.ec/index.php/ingenio
e-ISSN: 2697-3642 CC BY-NC-SA 4.0
Volumen 9 | Número 1 | Pp. 117 | Enero 2026 Recibido (Received): 2025/05/31
DOI: https://doi.org/ Aceptado (Accepted): 2025/10/14
Visión artificial para el diagnóstico de suelos
cafetaleros: revisión sistemática de la literatura
(Machine Vision for the Diagnosis of Coffee Soils: A Systematic
Literature Review)
Aldrich Arath Irisson Aburto
1
, María Salomé Alejandre Apolinar
1
, Hugo Amores Pérez
1
, Yadeneyro de la Cruz Elizondo
2
1
TecNM/Instituto Tecnológico Superior de Xalapa, Xalapa, México
2
Universidad Veracruzana, Xalapa, México
247O01212@itsx.edu.mx, salome.aa@xalapa.tecnm.mx, hugo.ap@xalapa.tecnm.mx, ydelacruz@uv.mx
Resumen: En Jilotepec, Veracruz, la producción de café enfrenta retos asociados con la
degradación del suelo y la baja productividad agrícola. Este trabajo se enfoca en una
Revisión Sistemática de la Literatura (RSL) sobre el uso de visión artificial para el
diagnóstico de suelos cafetaleros, con el fin de identificar técnicas efectivas que permitan
desarrollar herramientas tecnológicas aplicables al contexto local. La RSL se realizó bajo
un protocolo riguroso que incluyó criterios de inclusión/exclusión, búsqueda en bases de
datos científicas reconocidas y análisis temático de estudios entre 2019 y 2024. Los
resultados destacan el potencial de la visión artificial en tareas como segmentación de
imágenes, análisis de textura y detección de características fisicoquímicas del suelo. Como
aporte principal, se identifican tendencias, vacíos y oportunidades que fundamentan la
creación de un software de diagnóstico de suelos más rápido, accesible y preciso para
cafetaleros. Esta investigación sienta las bases para soluciones innovadoras en agricultura
sustentable y digital.
Palabras clave: Análisis de suelos, gestión agrícola, independencia tecnológica,
segmentación de imágenes y tecnología asistida.
Abstract: In Jilotepec, Veracruz, coffee production faces challenges associated with soil
degradation and low agricultural productivity. This work focuses on a Systematic Literature
Review (SLR) on the use of computer vision for the diagnosis of coffee-growing soils,
aiming to identify effective techniques that enable the development of technological tools
applicable to the local context. The SLR was conducted under a rigorous protocol that
included inclusion/exclusion criteria, a search in recognized scientific databases, and
thematic analysis of studies between 2019 and 2024. The results highlight the potential of
computer vision in tasks such as image segmentation, texture analysis, and the detection of
physicochemical soil characteristics. As a main contribution, the review identifies trends,
gaps, and opportunities that support the creation of faster, more accessible, and accurate
soil diagnostic software for coffee producers. This research lays the groundwork for
innovative solutions in sustainable and digital agriculture.
Keywords: Soil analysis, agricultural management, technological independence, image
segmentation, assisted technology.
1. INTRODUCCIÓN
La cafeticultura es una de las actividades agrícolas más representativas en México [1], no
solo por su impacto económico en zonas rurales, sino también por su relevancia social, cultural
y ambiental. Esta actividad tiene especial importancia en regiones montañosas como Jilotepec,
Visión articial para el diagnóstico de suelos
cafetaleros: revisión sistemática de la literatura
(Machine Vision for the Diagnosis of Coee Soils: A Systematic
Literature Review)
Aldrich Arath Irisson Aburto
1
, María Salomé Alejandre Apolinar
1
, Hugo Amores Pérez
1
,
Yadeneyro de la Cruz E lizondo
2
Volumen 9 | Número 1 | Pp. 32–48 | Enero 2026
DOI: https://doi.org/10.18779/ingenio.v9i1.1124
Recibido (Received): 2025/05/31
Aceptado (Accepted): 2025/10/14
InGenio Journal
Revista de Ciencias de la Ingeniería de la Universidad Técnica Estatal de Quevedo
642 - CC BY-NC-SA 4.0
https://revistas.uteq.edu.ec/index.php/ingenio
e-ISSN: 2697-3
InGenio Journal, 9(1), 32–48
33
InGenio Journal, 9(1), 117
| 2
Veracruz, donde el cultivo del café constituye el eje central de la economía local y forma parte
del modo de vida de las comunidades. En esta región, el 48 % de la superficie total está
dedicada a actividades agrícolas, siendo el café el principal cultivo tanto en términos de
superficie sembrada como de ingreso generado para los productores [2].
Sin embargo, en los últimos años la productividad de los cafetales en Jilotepec se ha visto
amenazada por diversos factores, siendo uno de los más preocupantes la degradación progresiva
del suelo. Esta problemática obedece, en gran medida, a prácticas inadecuadas de manejo
agrícola, así como a procesos erosivos que se han intensificado debido a la compleja topografía
del lugar y al impacto creciente del cambio climático [3]. Ante este panorama, se vuelve
indispensable evaluar con precisión el estado actual del suelo con el fin de diseñar e
implementar estrategias eficaces de conservación, restauración y mejora de las prácticas
agrícolas que permitan garantizar la sostenibilidad de la producción cafetalera en el mediano y
largo plazo.
Tradicionalmente, la evaluación de la calidad del suelo se realiza mediante procedimientos
manuales de muestreo y análisis en laboratorio. Si bien estos métodos ofrecen resultados
precisos y confiables, también presentan importantes limitaciones: suelen ser costosos,
requieren de tiempo considerable y demandan recursos especializados que no siempre están al
alcance de los pequeños productores [4]. Esto genera una barrera de acceso al diagnóstico del
suelo, limitando la capacidad de muchos agricultores para tomar decisiones informadas sobre el
manejo de sus parcelas.
En respuesta a estas limitaciones, la visión artificial ha emergido como una alternativa
tecnológica prometedora para el diagnóstico del suelo y de los cultivos a partir del análisis
automatizado de imágenes digitales. Esta tecnología permite detectar ciertas características
físicas y químicas del terreno de manera más rápida y con menor necesidad de intervención
humana, ofreciendo así una vía eficiente y escalable para obtener información útil sobre la
condición del suelo [5], [6], [7].
No obstante, a pesar del potencial que representa esta tecnología, aún existe una brecha
considerable en cuanto a su aplicación directa en cultivos específicos como el café,
especialmente en contextos rurales donde el acceso a herramientas digitales es limitado y la
infraestructura tecnológica es escasa. En particular, en regiones como Jilotepec, la integración
de la Visión Artificial en los procesos agrícolas se encuentra en etapas tempranas, lo cual
plantea tanto un reto como una oportunidad para el desarrollo de soluciones adaptadas a este
entorno.
Con base en lo anterior, este artículo presenta una Revisión Sistemática de la Literatura
(RSL) orientada a identificar las técnicas de visión artificial más utilizadas en el diagnóstico de
suelos agrícolas. El propósito de esta revisión es sentar las bases científicas necesarias para el
desarrollo futuro de herramientas digitales que respondan a las características específicas de los
cafetales de Jilotepec. Como aporte principal, se identifican los avances, vacíos y tendencias
presentes en la literatura académica reciente, lo que permitirá orientar futuras investigaciones e
iniciativas tecnológicas dirigidas al manejo sostenible del suelo en zonas cafetaleras.
El artículo se organiza de la siguiente manera: en la sección 2 se describe la metodología
empleada para llevar a cabo la revisión sistemática; en la sección 3 se presentan los resultados
obtenidos y su análisis correspondiente; y finalmente, en la sección 4 se discuten los hallazgos y
se formulan conclusiones junto con posibles líneas de trabajo futuro.
2. METODOLOGÍA
Este estudio se realizó bajo el enfoque metodológico propuesto por Barbara Kitchenham y
Stuart M. Charters [8] para la elaboración de RSL en el ámbito de la ingeniería del software, el
InGenio Journal, 9(1), 32–48
34
InGenio Journal, 9(1), 117
| 3
cual ha sido adaptado rigurosamente al contexto de la visión artificial aplicada al diagnóstico de
suelos agrícolas, particularmente en cultivos de café. Esta metodología proporciona un marco
estructurado que asegura la trazabilidad, transparencia, objetividad y replicabilidad de cada una
de las etapas de la revisión.
La aplicación de este enfoque permite construir un mapa actualizado del conocimiento
disponible, identificar vacíos en la literatura y guiar futuras investigaciones con una base sólida
(ver Figura 1).
Figura 1. Fases de la metodología RSL de acuerdo con [8]
2.1. Procedimiento
Fase 1. Planificar la revisión
Durante esta fase inicial, se estableció un protocolo que dirigió todo el proceso de revisión.
El protocolo incluyó los siguientes elementos clave:
Pregunta principal de investigación:
¿Qué técnicas de visión artificial se han aplicado exitosamente al diagnóstico de suelos
agrícolas?
Objetivo:
Identificar, clasificar y analizar las técnicas de visión artificial utilizadas en el diagnóstico
de suelos agrícolas, especialmente aquellas con potencial de aplicación en cafetales.
Criterios de inclusión:
Se consideraron artículos publicados entre 2019 y 2024, redactados en inglés o español,
disponibles en texto completo y revisados por pares, que presenten una aplicación
concreta de técnicas de visión artificial al análisis de suelos.
Criterios de exclusión:
Se excluyeron trabajos sin relación directa con el análisis de suelos, artículos duplicados,
estudios sin acceso completo (solo resumen) y publicaciones de carácter teórico u
opinativo sin evidencia empírica o técnica.
Para localizar la literatura relevante, se diseñaron y aplicaron cadenas de búsqueda
utilizando operadores booleanos y términos controlados, construidos a partir de un conjunto de
conceptos clave y sus respectivos sinónimos. La Tabla 1 muestra los términos principales
considerados para las búsquedas.
InGenio Journal, 9(1), 32–48
35
InGenio Journal, 9(1), 117
| 4
Tabla 1. Términos clave y sinónimos
Términos Sinónimos
“computer vision”
machine vision,
deep learning
“soil quality assessment”
soil evaluation,
agricultural soil analysis
A partir de estos términos, se formularon diversas cadenas de búsqueda, las cuales se
aplicaron en las bases de datos seleccionadas para recuperar el mayor número de estudios
relevantes posibles. La Tabla 2 presenta las cadenas de búsqueda utilizadas.
Tabla 2. Cadenas de búsqueda
ID Cadena de búsqueda
C1
("computer vision" OR "machine vision" OR "deep learning")
AND ("soil quality assessment" OR "soil evaluation" OR
"agricultural soil analysis")
C2
("computer vision" OR "machine vision" OR "deep learning")
AND ("soil assessment" OR "soil evaluation" OR "soil analysis")
C3
("computer vision" OR "machine vision" OR "deep learning")
AND ("soil quality" OR "soil evaluation" OR "soil analysis")
Estas cadenas de búsqueda se ejecutaron en las bases de datos académicas más relevantes en
el área, seleccionadas por su cobertura, especialización temática y relevancia científica. La
Tabla 3 presenta el criterio de elección de cada base de datos utilizada.
Tabla 3. Bases de datos para la búsqueda de literatura
Base de datos
académicas
Criterio de elección
Google
Scholar
Motor de búsqueda académico amplio que indexa literatura científica de
diversas fuentes, incluyendo ScienceDirect, MDPI, ResearchGate y otras
plataformas. Es útil para acceder a trabajos interdisciplinarios.
IEEE Xplore
Base de datos especializada en ingeniería eléctrica, electrónica y ciencias
computacionales. Contiene artículos altamente técnicos y relevantes para el
análisis automatizado de imágenes.
Springer
Nature Link
Repositorio multidisciplinario de publicaciones científicas que incluye libros,
artículos de revistas y conferencias. Su cobertura en ciencias aplicadas permite
encontrar estudios en agrotecnología y visión computacional.
ACM Digital
Library
Fuente clave para investigaciones en ciencias de la computación. Incluye
artículos revisados por pares relacionados con algoritmos, procesamiento de
imágenes y tecnologías emergentes aplicadas al análisis agrícola.
Consensus
Plataforma basada en inteligencia artificial diseñada para sintetizar resultados
de investigación científica de múltiples disciplinas. Permite acceder a
respuestas respaldadas por evidencia a partir de literatura revisada por pares,
siendo útil para identificar enfoques actualizados y tendencias emergentes en
temas especializados.
InGenio Journal, 9(1), 32–48
36
InGenio Journal, 9(1), 117
| 5
Fase 2. Conducir la revisión
Una vez definidas las cadenas de búsqueda, se procedió a su ejecución sistemática en cada
una de las bases de datos académicas seleccionadas. El objetivo de esta fase fue identificar cuál
de las combinaciones de términos ofrecía un mayor número de resultados relevantes,
permitiendo así maximizar la recuperación de literatura potencialmente útil para el estudio. Las
búsquedas fueron realizadas durante el mes de febrero del año 2025, siguiendo un mismo
criterio de aplicación en todas las plataformas para asegurar la uniformidad del procedimiento.
Posteriormente, se aplicó un primer filtrado a los resultados obtenidos, considerando los
criterios de inclusión definidos previamente: intervalo de publicación entre los años 2019 y
2024, idioma inglés o español, disponibilidad en texto completo y clasificación como artículos
académicos revisados por pares. Esta depuración inicial permitió eliminar estudios que no
cumplían con las condiciones mínimas de calidad y pertinencia, así como duplicados o
documentos sin acceso libre, así como detectar la cadena que da mayor cantidad de resultados.
Con base en los artículos resultantes de la mejor cadena de búsqueda, se llevó a cabo una
segunda ronda de filtrado. En esta etapa se revisaron los títulos de los estudios para evaluar su
pertinencia específica con el objeto de estudio, y se eliminaron aquellos que estaban duplicados
o que no abordaban directamente la aplicación de visión artificial en el diagnóstico de suelos
agrícolas. Este paso sirvió para asegurar la precisión y relevancia de la literatura seleccionada
para el análisis final.
Fase 3. Documentar la revisión
Los documentos seleccionados se analizaron en profundidad en la tercera fase del estudio,
con el objetivo de identificar patrones, técnicas recurrentes, algoritmos utilizados, tipos de datos
procesados y contextos de aplicación relacionados con la visión artificial y el análisis de suelos.
3. RESULTADOS Y DISCUSIÓN
Los resultados de la Fase 2 se presentan de forma resumida en la Tabla 4, donde se muestra
la cantidad total de documentos recuperados por cada cadena de búsqueda (C1, C2 y C3) en
cada una de las bases de datos.
Tabla 4. Resultados de búsqueda general de literatura
Base de datos académica C1 C2 C3
Google Scholar 666 4.800 10.700
IEEE 3 35 73
ACM 5 19 75
Springer Nature Link 31 302 867
Consensus 37 66 120
Total 742 5.222 11.835
Como puede observarse, la cadena de búsqueda C3 generó el mayor número de resultados
en todas las bases de datos, superando ampliamente a C1 y C2. Esto sugiere que C3 posee una
estructura de términos más amplia y efectiva para abarcar el enfoque temático del estudio.
La Tabla 5 muestra la comparación entre los resultados totales y los artículos que
cumplieron con los criterios de aceptación.
InGenio Journal, 9(1), 32–48
37
InGenio Journal, 9(1), 117
| 6
Tabla 5. Resultados de la aplicación de los criterios de aceptación
Base de datos académica C1 C2 C3
Google Scholar 666 97 4.800 572 10.700 1.530
IEEE 3
0 35
1 73
2
ACM 5 5 19 18 75 73
Springer Nature Link 31 2 302 32 867 87
Consensus 37
12 66
34 120
15
Total 742 116 5.222 657 11.835 1.707
A partir de esta comparación, se concluyó que la cadena de búsqueda C3 no solo era la que
generaba mayor cantidad de resultados, sino también la que conservaba el mayor número de
artículos relevantes tras aplicar los filtros de inclusión. Por esta razón, se eligió la cadena C3
como la cadena principal para el proceso de selección final. La Tabla 6 presenta el número
definitivo de artículos considerados por base de datos.
Tabla 6. Filtrado final de literatura
Base de datos académica Filtrado 1 Filtrado 2 Filtrado 3
Google Scholar 10.700 1.530 20
IEEE 73 2 2
ACM 75 73 4
Springer Nature Link 867 87 8
Consensus 120 15 6
Total 11.835 1.707 40
El proceso de filtrado descrito dio como resultado un conjunto final de cuarenta (40)
artículos altamente relevantes que constituyen la base documental de esta Revisión Sistemática
de la Literatura. Estos documentos fueron analizados en profundidad en la fase 3 del estudio, y
en la Tabla 7 se muestra veintitrés (23) artículos del conjunto final, a modo de representación de
los hallazgos obtenidos.
Los veintitrés (23) artículos incluidos en la Tabla 7 comparten como objetivo principal la
mejora o automatización de la evaluación del suelo o de condiciones relacionadas mediante
visión artificial. Algunos trabajos se enfocan en desarrollar modelos precisos para segmentación
de residuos agrícolas [9], otros en predecir propiedades como textura del suelo con imágenes
tomadas por smartphones [10], mientras que algunos ofrecen revisiones amplias del estado del
arte en clasificación de suelos [6], [13]. Además, se identificaron propuestas novedosas como
CollembolAI, que, aunque no evalúa el suelo directamente, utiliza visión artificial para analizar
bioindicadores asociados a su calidad [11].
38
InGenio Journal, 9(1), 117
| 7
Tabla 7. Análisis de literatura
Técnica
Algoritmo/
modelo
Cultivo o suelo Datos utilizados Resultados clave
Ventajas/
Desventajas
Base de
datos
académica
Año
Visión
artificial y
deep learning
U-Net
Suelo con
residuos de maíz
y soja
Imágenes RGB
terrestres de alta
resolución
89 % de precisión en
segmentación de
residuos
Alta precisión;
requiere
entrenamiento
intensivo
Google
Scholar [9]
2021
Visión
artificial y
deep learning
CNN, SVM,
RF,
VGGNet,
ResNet50,
PCA, K-
Means
Suelos diversos
Imágenes de cámaras,
móviles, satélite,
sensores; bases
creadas por autores
Precisión hasta 98,72
% con ResNet50,
SVM > 95 %
Alta precisión;
algunos métodos
requieren alto poder
de cómputo; posible
bajo costo con
móviles
Google
Scholar [6]
2021
Visión
artificial con
DLAC y CNN
DLAC-
CNN-RF
12 tipos de
suelos (arcilla,
limo, arena)
Imágenes de suelos
capturadas con
smartphone y datos
de textura
(hidrómetro)
Precisión de 99,67 %
en la predicción de
textura del suelo; R2
de 0,99; Mejor
rendimiento que
KNN y VGG16-RF
Alta precisión y bajo
costo; requiere
calibración del
sistema y limitación
en la distancia de la
cámara
Consensus
[10]
2022
Macrofotogra
fía, visión por
computadora
Faster R-
CNN con
SAHI
(Detectron2)
Mesofauna del
suelo (12
especies de
Collembola y
Acari)
36 imágenes
compuestas, 5.671
anotaciones
(entreno), 442
(prueba); cámara
DSLR, muestras en
etanol
Precisión 94 %,
Recall 91,8 %,
mAP@0.5 = 0,868;
bajo 2,7 % de falsos
positivos por fondo
Alta precisión,
reutilizable, accesible;
requiere anotación
inicial y buena
calidad de imagen
Consensus
[11]
2022
39
InGenio Journal, 9(1), 117
| 8
Revisión de
visión
artificial + DL
CNN,
YOLO,
SSD, GANs,
ViT
Múltiples
cultivos y suelos
agrícolas
Imágenes
RGB/hiperespectrales
, UAV, sensores,
bases de datos
públicas y privadas
Alta precisión (>95
%) en tareas de
detección; generación
sintética de datos con
GANs
Cobertura completa;
desafíos de datos
masivos, potencia
computacional y
variabilidad en campo
Consensus
[12]
2022
Visión por
computadora
basada en
texturas y
colores
SVM
(Sel_FS),
ANN, MR,
DT
Ocho clases de
suelo (clay,
sandy, silt, etc.)
38,912 imágenes
RGB (aumentadas)
capturadas con
smartphone +
características
seleccionadas
Precisión de 99,79 %
con SVM; mejora
sobre estudios
previos en ~37 %
Alta precisión,
sistema económico y
portátil; necesita
anotación manual y
selección de
características óptima
Springer
Nature Link
[13]
2022
Big Data,
Visión
artificial, IoT
CNN, RNN,
DBN, GAN,
DRN,
sensores IoT
Diversos
cultivos
(general)
Sensores, UAVs,
imágenes, IoT, datos
abiertos, plataformas
en la nube
Alta aplicabilidad
tecnológica, pero con
retos en datos,
infraestructura y
adopción
Muy completo y
actualizado; no
enfocado en un
cultivo o suelo
específico
ACM [14] 2023
Procesamient
o satelital, DL
DLCA
(CNN, K-
means,
KNN, NB)
Arroz (paddy),
suelos de
Thanjavur
Imágenes Sentinel-2,
Landsat, Copernicus
(2019)
98,52 % de precisión,
F1-score 99,02 %,
MCC 98,43 %
Alta precisión y
cobertura multietapa;
requiere
preprocesamiento y
recursos de cómputo
ACM [15] 2023
Deep
Learning
DNNR
Suelos rojos y
negros (India)
Datos de laboratorio
(pH, OC, P, K),
sensores IoT,
humedad,
temperatura (2016
2020)
Precisión del 96,7 %
en predicción de
calidad; mejor que
ANN, KNN y otros
modelos previos
Alta precisión,
eficiente y adaptable;
no incluye visión
artificial; requiere
datos bien
preprocesados
Consensus
[16]
2023
40
InGenio Journal, 9(1), 117
| 9
Visión
artificial
SSD
MobileNet
v2,
EfficientDet
D0
Plantas con
clorosis férrica
Imágenes de hojas
(web), anotadas con
LabelImg
mAP: 22 (SSD), 33,6
(EfficientDet);
Precisión > 98 %
Alta precisión;
EfficientDet más
lento pero más exacto
IEEE [17] 2023
Visión
artificial
(CNN)
U-Net con
EfficientNet
-B4
Trigo
Más de 120.000
imágenes RGB top-
down (2017–2021),
múltiples sitios y
condiciones
Precisión > 94 % en
Dice e IoU;
segmentación robusta
del dosel vegetal
Alta precisión, no
destructivo, escalable;
requiere
entrenamiento con
muchos datos
Springer
Nature Link
[18]
2023
Teledetección,
deep learning
CNN, NDVI
Franco-arcilloso
y arcilloso;
trigo, guisante,
forrajes
Imágenes Landsat
2013–2022, NDVI,
275 puntos de
control, muestreo de
suelos
Precisión >0,95
(CNN); NDVI ↑
0,19; mejoras en EC,
Mg, limo, etc.
Alta precisión y
cobertura espacial;
Limitación por
resolución Landsat y
condiciones de
humedad variables
Springer
Nature Link
[19]
2023
Visión, señales
RF (Wi-Fi)
ResNet,
modelado
matemático
Suelo agrícola,
mezcla
arena/compost
Imágenes de
smartphone, señales
Wi-Fi, sensores
comerciales
91 % de R² sin
secado de muestra;
bajo costo y buena
precisión
Bajo costo; sin
preparación; menor
precisión en suelos
naturales con baja
variabilidad
ACM [20] 2024
Machine
Learning
SVM, ID3,
C4.5,
Random
Forest
Suelo: Arenoso,
arcilloso y
franco
Sensores de campo,
portales
ICAR/TNAU,
observación de
síntomas
Reglas de correlación
para recomendar
abonos según
deficiencias y tipo de
suelo
Reglas detalladas y
prácticas; no se
enfoca en visión
artificial, resultados
aún teóricos
ACM [21] 2024
41
InGenio Journal, 9(1), 117
| 10
Revisión de
visión por
computadora
y aprendizaje
profundo
CNN,
YOLO, ViT,
GANs,
SVM, etc.
Diversos
cultivos (trigo,
tomate, arroz,
etc.)
Imágenes RGB,
térmicas,
hiperespectrales y
multiespectrales;
datasets públicos y de
campo
Precisión > 99 % en
modelos
personalizados;
mejoras en
diagnóstico y
eficiencia agrícola
Alta precisión y
automatización;
requiere muchos
datos etiquetados,
gran poder de
cómputo, problemas
de interpretabilidad
Consensus
[22]
2024
ML, DL y
visión satelital
ANN,
LSTM,
GMA, PCA,
HCA, GIS,
RS
Suelo agrícola
general
Propiedades físico-
químicas y
biológicas, imágenes
satelitales
Modelos DL
precisos; GMA
mostró alta
sensibilidad en
Egipto
ML/DL permiten
rapidez y precisión;
requerimientos
computacionales altos
Consensus
[23]
2024
Imágenes
hiperespectral
es, ML
CNN, SVM,
XGBoost,
etc.
Suelos agrícolas
con distintas
propiedades
Imágenes HSI
(satélite, drones,
sensores terrestres),
muestras físicas
Alta precisión en
estimación de SOC,
textura, humedad,
metales pesados y
nutrientes
No destructivo; alta
precisión; alto costo;
necesidad de gran
preprocesamiento
Google
Scholar [24]
2024
Visión
artificial (DL)
YOLO,
Mask R-
CNN, U-
Net,
EfficientNet,
CNN
Cultivos
hortícolas en
invernadero
Imágenes RGB,
térmicas,
hiperespectrales,
sensores IoT, drones
Alta precisión en
monitoreo, detección
y automatización
agrícola en
invernaderos
Revisión completa;
técnicas modernas;
necesidad de más
datos etiquetados y
robustez en entornos
reales
IEEE [25] 2024
IoT,
aprendizaje
profundo
RNN con
GRU +
recomendaci
ones
contrafactua
les
Suelo para
cultivo de café
en Karnataka
(India)
Datos de sensores
IoT (20 semanas),
640 muestras
históricas, app móvil,
AWS Cloud
Precisión 94,25 %;
mejor que SVM,
GAN, FFNN, etc.
Transformación real
de suelos
Alta precisión y
usabilidad; alto costo
de hardware, desafíos
en climas extremos y
adopción por
pequeños agricultores
Springer
Nature Link
[26]
2024
42
InGenio Journal, 9(1), 117
| 11
Revisión de
CNN en visión
artificial
CNN (VGG,
ResNet,
DenseNet,
ViT, etc.)
Cultivo de papa
Imágenes RGB (2–6
clases); datasets de
900–10.000
imágenes; múltiples
países
Precisión hasta 99,98
% con Deep
Ensemble; modelos
robustos y
generalizables
Alta precisión y
múltiples enfoques;
limitaciones en datos,
variabilidad de
síntomas y costos
computacionales
Springer
Nature Link
[27]
2024
Visión
espectral. IA
en madurez
de frutas
SVM, RF,
ANN, KNN,
clustering
Frutas
(manzana,
mango, etc.)
Datos de sensores
destructivos y no
destructivos
(vis/NIR, HPLC,
espectroscopía, etc.)
Modelos ML
eficientes con fusión
sensorial; mejores
índices: °Brix,
firmeza, color
Alta eficiencia y
precisión; necesita
calibración por tipo
de fruta y dataset
extenso
Springer
Nature Link
[28]
2024
Agro-deep
learning,
visión
artificial
ADLF
(CNN, DL)
Cultivos
globales (arroz,
trigo, etc.)
56.717 muestras;
imágenes satelitales,
sensores IoT, clima,
Kaggle dataset
Precisión 84,87 %,
F1-score 88,91 %,
mejor que SVM, RF,
DLBO, etc.
Altamente preciso,
adaptable y eficiente;
complejo de entrenar,
requiere múltiples
fuentes de datos
Springer
Nature Link
[29]
2024
Visión
artificial,
MLP, CNN
WaveVision
Net
(MLP+CNN
+HDC)
Hojas de 26
variedades de
mango
16.646 imágenes
(MangoFolioBD);
cámaras móviles;
datos aumentados y
con ruido
Precisión 97,23 % sin
ruido, 95,21 % con
ruido; AUC 0,9831;
F1 = 0,9544
Alta precisión y
robustez; necesita
entrenamiento
intensivo y hardware
compatible para
despliegue
Springer
Nature Link
[30]
2024
InGenio Journal, 9(1), 32–48
43
InGenio Journal, 9(1), 117
| 12
La técnica predominante fue el uso de redes neuronales convolucionales (CNN), presente en
la mayoría de los artículos [6], [10], [12], [19], [27], (ver Figura 2). En particular, modelos
como U-Net [9], [18], R-CNN, YOLO, ResNet y variantes personalizadas como DLAC-CNN-
RF [10] demostraron alta eficacia en tareas de clasificación y segmentación (ver Figura 3).
También se observaron técnicas de aprendizaje profundo combinadas con métodos estadísticos
como Random Forest y SVM, lo cual permite mejorar la robustez de los modelos [13], [21].
Figura 2. Principales algoritmos/modelos de análisis
InGenio Journal, 9(1), 32–48
44
InGenio Journal, 9(1), 117
| 13
Figura 3. Clasificación de algoritmos/modelos en visión artificial
La diversidad de suelos fue notable. Se analizaron suelos arcillosos, arenosos, limosos,
suelos de la India (Tamil Nadu), y agrícolas cubiertos con residuos de maíz o soya [9], [12],
[22], [29]. En el caso de cultivos, se observaron aplicaciones en trigo, arroz, tomate, pepino,
entre otros [14], [18], [25], (ver Figura 4). Algunos estudios no se centraron en un tipo de
cultivo específico, sino en la clasificación de muestras de suelo a partir de sus propiedades
sicas [24].
Figura 4. Tipos de suelo y cultivos analizados
InGenio Journal, 9(1), 32–48
45
InGenio Journal, 9(1), 117
| 14
Las fuentes de datos más frecuentes fueron imágenes RGB, muchas de ellas capturadas por
cámaras digitales, drones, o smartphones de alta gama [10], [13], [20]. También se emplearon
imágenes hiperespectrales (HSI) y datos satelitales [19]. Algunos estudios utilizaron
microscopía o sistemas de macrofotografía automatizados como parte de entornos
experimentales personalizados [11] (ver Figura 5).
Figura 5. Fuentes de datos utilizadas
En términos de precisión, los modelos analizados lograron resultados destacados: U-Net
superó el 89 % [9], y DLAC-CNN-RF alcanzó un rendimiento sobresaliente en predicción de
textura [10]. Modelos avanzados como X101-FPN con SAHI también mostraron una precisión
promedio del 86  % en tareas especializadas [11]. Los autores coinciden en que las técnicas de
visión artificial pueden sustituir o complementar métodos tradicionales de análisis de suelo,
siempre que se ajusten a las condiciones locales y se disponga de datos suficientes [18], [29].
4. CONCLUSIONES
Este estudio consistió en una RSL orientada a identificar y analizar las técnicas de visión
artificial aplicadas al análisis de suelos agrícolas. La metodología implicó el examen exhaustivo
de cuarenta artículos científicos, evaluados en función de su relevancia técnica y aplicabilidad
práctica. Lo que permitió clasificar y comparar de manera sistemática los objetivos, algoritmos,
tipos de suelo, fuentes de datos y principales hallazgos reportados en cada investigación.
Los hallazgos muestran que las CNN son las técnicas más empleadas, con modelos como U-
Net, ResNet y DLAC-CNN-RF mostrando altos niveles de precisión en tareas de segmentación
y clasificación. En cuanto a los datos, las imágenes RGB capturadas por smartphones o cámaras
digitales fueron la fuente más común, aunque también se identificaron enfoques más avanzados
con imágenes hiperespectrales o satelitales. Se abordaron diversos tipos de suelos y cultivos, lo
que demuestra la versatilidad de estas herramientas.
Se concluye que la visión artificial representa una alternativa no destructiva, precisa y
eficiente para el diagnóstico del suelo. Sin embargo, aún existen vacíos en la literatura,
especialmente en aplicaciones dirigidas a cultivos como el café y en contextos rurales con bajo
acceso tecnológico. Como trabajo futuro, se propone el desarrollo de modelos entrenados con
datos locales y de bajo costo computacional, que permitan implementar soluciones reales en
comunidades cafetaleras como las de Jilotepec, Veracruz.
InGenio Journal, 9(1), 32–48
46
InGenio Journal, 9(1), 117
| 15
REFERENCIAS
[1] A. C. Hernández, G. H. Martínez, y R. Manson, “La cafeticultura mexicana: el caso del
proyecto biocafé”, en III Congresso Brasileiro de Agroecologia, Florianópolis, Brasil,
Oct. 2005. [En línea]. Disponible en: https://acortar.link/Hm4zAz
[2] SEFIPLAN, “Sistema de Información Estadística y Geográfica del Estado de Veracruz
de Ignacio de la Llave (SIEGVER)”, Secretaría de Finanzas y Planeación, Jilotepec,
Cuadernillos Municipales. Jilotepec, 2024. [En línea]. Disponible en:
https://cieg.gobiernodigital.gob.mx/wp-
content/uploads/sites/21/2024/11/Jilotepec_CM_2024_Ver.2.pdf
[3] D. Geissert, A. Mólgora-Tapia, S. Negrete-Yankelevich, y R. Hunter Manson, “Efecto
del manejo de la cobertura vegetal sobre la erosión hídrica en cafetales de sombra”,
AGROCIENCIA, vol. 51, no. 2, pp. 119–133, Mar. 2017, [En línea]. Disponible en:
https://www.agrociencia-colpos.org/index.php/agrociencia/article/view/1282
[4] O. Santillán, y M. E. Rentería Rodríguez, “Agricultura de Precisión”, Oficina de
Información Científica y Tecnológica para el Congreso de la Unión [INCYTU], Ciudad
de México, 15, Abr. 2018. [En línea]. Disponible en:
https://www.foroconsultivo.org.mx/INCyTU/index.php/notas/sociedad/94-15-
agricultura-de-precision-n-2
[5] J. F. Sotomayor, A. P. Gómez, y A. F. Cela, “Sistema de Visión Artificial para el
Análisis de Imágenes de Cultivo basado en Texturas Orientadas”, Rev. Politécnica, vol.
33, no. 1, Jan. 2014, [En línea]. Disponible en:
https://revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2/article/view/10
4
[6] P. Srivastava, A. Shukla, y A. Bansal, “A comprehensive review on soil classification
using deep learning and computer vision techniques”, Multimed. Tools Appl., vol. 80,
no. 10, pp. 14887–14914, Abr. 2021. [En línea]. Disponible en:
https://doi.org/10.1007/s11042-021-10544-5
[7] M. Javaid, A. Haleem, I. H. Khan, y R. Suman, “Understanding the potential
applications of Artificial Intelligence in Agriculture Sector”, Adv. Agrochem, vol. 2, no.
1, pp. 15–30, Oct. 2022. [En línea]. Disponible en:
https://doi.org/10.1016/j.aac.2022.10.001
[8] B. Kitchenham, y S. Charters, “Guidelines for performing Systematic Literature
Reviews in Software Engineering”, vol. 2, Jul. 2007, [En línea]. Disponible en:
https://www.researchgate.net/publication/302924724
[9] F. A. Diaz-Gonzalez, J. Vuelvas, C. A. Correa, V. E. Vallejo, y D. Patino, “Machine
learning and remote sensing techniques applied to estimate soil indicators – Review”,
Ecol. Indic., vol. 135, pp. 108517, Dec. 2021. [En línea]. Disponible en:
https://doi.org/10.1016/j.ecolind.2021.108517
[10] Z. Zhao, W. Feng, J. Xiao, X. Liu, S. Pan, y Z. Lian g, “Rapid and Accurate Prediction
of Soil Texture Using an Image-Based Deep Learning Autoencoder Convolutional
Neural Network Random Forest (DLAC-CNN-RF) Algorithm”, MDPI, vol. 12, no. 12,
Dec. 2022. [En línea]. Disponible en: https://doi.org/10.3390/agronomy12123063
InGenio Journal, 9(1), 32–48
47
InGenio Journal, 9(1), 117
| 16
[11] S. Sys, S. Weißbach, L. Jakob, S. Gerber, y C. Schneider, “CollembolAI, a
macrophotography and computer vision workflow to digitize and characterize samples
of soil invertebrate communities preserved in fluid”, Methods Ecol. Evol., vol. 13, no.
12, pp. 2729–2742, Oct. 2022. [En línea]. Disponible en: https://doi.org/10.1111/2041-
210X.14001
[12] V. G. Dhanya et al., “Deep learning based computer vision approaches for smart
agricultural applications”, Artif. Intell. Agric., vol. 6, pp. 211–229, Sep. 2022. [En
línea]. Disponible en: https://doi.org/10.1016/j.aiia.2022.09.007
[13] M. Uddin, y Md. R. Hassan, “A novel feature based algorithm for soil type
classification”, Complex Intell. Syst., vol. 8, no. 4, pp. 3377–3393, Feb. 2022. [En
línea]. Disponible en: https://doi.org/10.1007/s40747-022-00682-0
[14] D. Han, y M. Rodriguez, “Big Data Analytics, Data Science, ML&AI for Connected,
Data-driven Precision Agriculture and Smart Farming Systems: Challenges and Future
Directions”, en Proceedings of Cyber-Physical Systems and Internet of Things Week
2023, San Antonio TX USA: ACM, May 2023, pp. 378–384. [En línea]. Disponible en:
https://doi.org/10.1145/3576914.3588337
[15] R. Sathiya Priya, y U. Rahamathunnisa, “A Novel Clustering Algorithm for Monitoring
Paddy Growth Through Satellite Image Processing.”, ACM Trans. Sens. Netw., p.
3579358, May 2023. [En línea]. Disponible en: https://doi.org/10.1145/3579358
[16] P. Sumathi, V. V. Karthikeyan, M. S. Kavitha, y S. Karthik, “Improved Soil Quality
Prediction Model Using Deep Learning for Smart Agriculture Systems”, Comput. Syst.
Sci. Eng., vol. 45, no. 2, pp. 1545–1559, Nov. 2023. [En línea]. Disponible en:
https://doi.org/10.32604/csse.2023.027580
[17] M. Majdalawieh, S. Khan, y Md. T. Islam, “Using Deep Learning Model to Identify
Iron Chlorosis in Plants”, IEEE Access, vol. 11, pp. 46949–46955, May 2023. [En
línea]. Disponible en: https://doi.org/10.1109/ACCESS.2023.3273607
[18] M. Awais et al., “AI and machine learning for soil analysis: an assessment of
sustainable agricultural practices”, Bioresour. Bioprocess., vol. 10, no. 1, p. 90, Dic.
2023. [En línea]. Disponible en: https://doi.org/10.1186/s40643-023-00710-y
[19] M. Kazemi Garajeh, K. Hassangholizadeh, A. R. Bakhshi Lomer, A. Ranjbari, L. Ebadi,
y M. Sadeghnejad, “Monitoring the impacts of crop residue cover on agricultural
productivity and soil chemical and physical characteristics”, Sci. Rep., vol. 13, no. 1, p.
15054, Sep. 2023. [En línea]. Disponible en: https://doi.org/10.1038/s41598-023-42367-
9
[20] J. Ding, R. Chandra, R. Lal, y L. Tassiulas, “Cost-Effective Soil Carbon Sensing with
Wi-Fi and Optical Signals”, en Proceedings of the 30th Annual International
Conference on Mobile Computing and Networking, Washington D.C. DC USA: ACM,
Dic. 2024, pp. 1015–1029. doi: https://doi.org/10.1145/3636534.3690675
[21] B. R. A et al., “Exploratory Study of Soil Parameters to Generate Correlations to
Recommend Organic Manure”, en Proceedings of the 2024 Sixteenth International
Conference on Contemporary Computing, Noida India: ACM, Aug. 2024, pp. 162–169.
[En línea]. Disponible en: https://doi.org/10.1145/3675888.3676046
[22] A. Upadhyay et al., “Deep learning and computer vision in plant disease detection: a
comprehensive review of techniques, models, and trends in precision agriculture”, Artif.
Intell. Rev., vol. 58, no. 3, pp. 92, Dic. 2024. [En línea]. Disponible en:
https://doi.org/10.1007/s10462-024-11100-x
InGenio Journal, 9(1), 32–48
48
InGenio Journal, 9(1), 117
| 17
[23] R. A. El Behairy et al., “How Can Soil Quality Be Accurately and Quickly Studied? A
Review”, Agronomy, vol. 14, no. 8, pp. 1682, Jul. 2024. [Ennea]. Disponible en:
https://doi.org/10.3390/agronomy14081682
[24] N. A. Sharma, K. Kumar, R. R. Chand, y M. A. Kabir, “Utilizing Hyperspectral
Imaging with Machine Learning Techniques for Soil Analysis”, Feb. 2024. [En línea].
Disponible en: https://doi.org/10.1007/978-3-031-83127-0_5
[25] J. U. M. Akbar, S. F. Kamarulzaman, A. J. M. Muzahid, Md. A. Rahman, y M. Uddin,
“A Comprehensive Review on Deep Learning Assisted Computer Vision Techniques
for Smart Greenhouse Agriculture”, IEEE Access, vol. 12, pp. 4485–4522, Jan. 2024.
[En línea]. Disponible en: https://doi.org/10.1109/ACCESS.2024.3349418
[26] R. Selvanarayanan, S. Rajendran, S. Algburi, O. Ibrahim Khalaf, y H. Hamam,
“Empowering coffee farming using counterfactual recommendation based RNN driven
IoT integrated soil quality command system”, Sci. Rep., vol. 14, no. 1, p. 6269, Mar.
2024. [En línea]. Disponible en: https://doi.org/10.1038/s41598-024-56954-x
[27] B. Gülmez, “A Comprehensive Review of Convolutional Neural Networks based
Disease Detection Strategies in Potato Agriculture”, Potato Res., Aug. 2024. [En línea].
Disponible en: https://doi.org/10.1007/s11540-024-09786-1
[28] M. Islam, S. Bijjahalli, T. Fahey, A. Gardi, R. Sabatini, y D. W. Lamb, “Destructive and
non-destructive measurement approaches and the application of AI models in precision
agriculture: a review”, Precis. Agric., vol. 25, no. 3, pp. 1127–1180, Feb. 2024. [En
línea]. Disponible en: https://doi.org/10.1007/s11119-024-10112-5
[29] J. Logeshwaran et al., “Improving crop production using an agro-deep learning
framework in precision agriculture”, BMC Bioinformatics, vol. 25, no. 1, pp. 341, Nov.
2024. [En línea]. Disponible en: https://doi.org/10.1186/s12859-024-05970-9
[30] Md. F. Ul-Islam, A. Chakrabarty, R. Rahman, H. Moon, y Md. J. Piran, “Advancing
mango leaf variant identification with a robust multi-layer perceptron model”, Sci. Rep.,
vol. 14, no. 1, p. 27406, Nov. 2024. [En línea]. Disponible en:
https://doi.org/10.1038/s41598-024-74612-0
Copyright (2026) © Aldrich Irisson Aburto, María Alejandre Apolinar, Hugo Amores Pérez, Yadeneyro Elizondo.
Este texto está protegido bajo una licencia internacional Creative Commons 4.0. Usted es libre para compartir, copiar y
redistribuir el material en cualquier medio o formato. También podrá adaptar: remezclar, transformar y construir sobre el
material. Ver resumen de la licencia.