Algoritmo memético

Algoritmo para buscar un espacio de problemas

Un algoritmo memético (MA) en informática e investigación de operaciones es una extensión del algoritmo genético (GA) tradicional o del algoritmo evolutivo (EA) más general. Puede proporcionar una solución suficientemente buena para un problema de optimización . Utiliza una técnica de búsqueda local o heurística adecuada para mejorar la calidad de las soluciones generadas por el EA y reducir la probabilidad de convergencia prematura . [1]

Los algoritmos meméticos representan una de las áreas de investigación de reciente crecimiento en el campo de la computación evolutiva . El término MA se utiliza ahora ampliamente como una sinergia de un enfoque evolutivo o de cualquier enfoque basado en la población con procedimientos de aprendizaje individual o de mejora local separados para la búsqueda de problemas. Muy a menudo, en la literatura también se hace referencia a los MA como algoritmos evolutivos baldwinianos (EA), EA lamarckianos, algoritmos culturales o búsqueda genética local.

Introducción

Inspirado tanto por los principios darwinianos de la evolución natural como por la noción de meme de Dawkins , el término algoritmo memético (MA) fue introducido por Pablo Moscato en su informe técnico [2] en 1989, donde consideró que el MA se acercaba a una forma de algoritmo genético híbrido basado en la población (GA) acoplado a un procedimiento de aprendizaje individual capaz de realizar refinamientos locales. Los paralelos metafóricos, por un lado, con la evolución darwiniana y, por otro lado, entre los memes y las heurísticas específicas del dominio (búsqueda local) se capturan dentro de los algoritmos meméticos, lo que produce una metodología que equilibra bien entre generalidad y especificidad del problema. Esta naturaleza de dos etapas los convierte en un caso especial de evolución de doble fase .

En el contexto de la optimización compleja, se han informado muchas instancias diferentes de algoritmos meméticos en una amplia gama de dominios de aplicación, que en general convergen hacia soluciones de alta calidad de manera más eficiente que sus contrapartes evolutivas convencionales. [3]

En general, el uso de las ideas de la memética dentro de un marco computacional se denomina computación memética o computación memética (CM). [4] [5] Con la CM, los rasgos del darwinismo universal se capturan de manera más apropiada. Vista desde esta perspectiva, la MA es una noción más restringida de la CM. Más específicamente, la MA cubre un área de la CM, en particular el tratamiento de áreas de algoritmos evolutivos que se combinan con otras técnicas de refinamiento determinista para resolver problemas de optimización. La CM extiende la noción de memes para cubrir entidades conceptuales de procedimientos o representaciones mejorados por el conocimiento.

Fundamento teórico

Los teoremas de optimización y búsqueda que establecen que no hay nada gratis [6] [7] establecen que todas las estrategias de optimización son igualmente efectivas con respecto al conjunto de todos los problemas de optimización. A la inversa, esto significa que se puede esperar lo siguiente: cuanto más eficientemente un algoritmo resuelve un problema o una clase de problemas, menos general es y más conocimiento específico del problema se basa en él. Esta idea conduce directamente a la recomendación de complementar las metaheurísticas de aplicación general con métodos o heurísticas específicos de la aplicación [8] , lo que encaja bien con el concepto de MA.

El desarrollo de las MA

1ra generación

Pablo Moscato caracterizó un MA de la siguiente manera: " Los algoritmos meméticos son un matrimonio entre una búsqueda global basada en la población y la búsqueda local heurística realizada por cada uno de los individuos. ... Los mecanismos para hacer búsqueda local pueden ser alcanzar un óptimo local o mejorar (con respecto a la función de costo objetivo) hasta un nivel predeterminado ". Y enfatiza " No estoy restringiendo un MA a una representación genética ". [9] Esta definición original de MA aunque abarca características de evolución cultural (en forma de refinamiento local) en el ciclo de búsqueda, puede no calificar como un verdadero sistema evolutivo según el darwinismo universal , ya que faltan todos los principios básicos de herencia/transmisión memética, variación y selección. Esto sugiere por qué el término MA provocó críticas y controversias entre los investigadores cuando se introdujo por primera vez. [2] El siguiente pseudocódigo correspondería a esta definición general de un MA:

Pseudocódigo
 Procedimiento Algoritmo memético Inicializar: Generar una población inicial, evaluar los individuos y asignarles un valor de calidad; mientras No se cumplen las condiciones de parada do  Desarrollar una nueva población utilizando operadores de búsqueda estocásticos. Evaluar todos los individuos de la población y asignarles un valor de calidad. Seleccionar el subconjunto de individuos,     Ohmio  i yo     {\displaystyle \Omega__{il}}  , que deben someterse al procedimiento de mejora individual. para cada individuo en do     Ohmio  i yo     {\displaystyle \Omega__{il}}    Realizar aprendizaje individual utilizando meme(s) con frecuencia o probabilidad de     F  i yo     {\displaystyle f_{il}}  , con una intensidad de .      a  i yo     {\displaystyle t_{il}}  Proceder con el aprendizaje lamarckiano o baldwiniano. fin para  fin mientras

El aprendizaje lamarckiano en este contexto significa actualizar el cromosoma de acuerdo con la solución mejorada encontrada por el paso de aprendizaje individual, mientras que el aprendizaje baldwiniano deja el cromosoma sin cambios y utiliza solo la aptitud mejorada. Este pseudocódigo deja abierto qué pasos se basan en la aptitud de los individuos y cuáles no. En cuestión están la evolución de la nueva población y la selección de . Ohmio i yo {\displaystyle \Omega__{il}}

Dado que la mayoría de las implementaciones de MA se basan en EA, aquí también se proporciona el pseudocódigo de un representante correspondiente de la primera generación, siguiendo a Krasnogor: [10]

Pseudocódigo
 Procedimiento Algoritmo Memético Basado en un EA Inicialización: ; // Inicialización del contador de generación    a = 0   {\estilo de visualización t=0}  Generar aleatoriamente una población inicial ;    PAG ( a )   {\estilo de visualización P(t)}  Calcular la aptitud ; mientras que las condiciones de detención no se satisfacen hacer Selección: En consecuencia, elegir un subconjunto de y almacenarlo en ; Descendencia: Recombinar y mutar individuos y almacenarlos en ; Aprendizaje: Mejorar por búsqueda local o heurística ; Evaluación: Calcular la aptitud ; si aprendizaje lamarckiano entonces Actualizar el cromosoma de según la mejora ; fi Nueva generación: Generar seleccionando algunos individuos de y ; ; // Incrementar el contador de generación fin mientras Devolver el mejor individuo como resultado;    F ( pag )      pag  PAG ( a )   {\displaystyle f(p)\ \ \para todo p\en P(t)}      F ( pag )   {\estilo de visualización f(p)}     PAG ( a )   {\estilo de visualización P(t)}     METRO ( a )   {\estilo de visualización M(t)}      pag  METRO ( a )   {\displaystyle p\en M(t)}      METRO "  ( a )   {\displaystyle M'(t)}       pag "    {\estilo de visualización p'}       pag "    METRO "  ( a )   {\displaystyle \para todo p'\en M'(t)}     F (  pag "  )       pag "    METRO "  ( a )   {\displaystyle f(p')\ \ \para todo p'\en M'(t)}        pag "    {\estilo de visualización p'}       pag "    METRO "  ( a )   {\displaystyle \para todo p'\en M'(t)}        PAG ( a + 1 )   Estilo de visualización P(t+1)     PAG ( a )   {\estilo de visualización P(t)}      METRO "  ( a )   {\displaystyle M'(t)}      a = a + 1   {\estilo de visualización t=t+1}      pag  PAG ( a  1 )   {\displaystyle p\en P(t-1)} 

Existen algunas alternativas para este esquema de MA. Por ejemplo:

  • Todos o algunos de los individuos iniciales podrán ser mejorados por el(los) meme(s).
  • Se pueden mejorar localmente los padres en lugar de la descendencia.
  • En lugar de toda la descendencia, solo una fracción seleccionada al azar o dependiente de la aptitud puede experimentar una mejora local. Esto último requiere la evaluación de la descendencia antes del paso de aprendizaje . METRO " ( a ) {\displaystyle M'(t)}

2da generación

Los MA multimeme, [11] hiperheurísticos [12] [13] y meta-Lamarckianos [14] [15] se conocen como MA de segunda generación que exhiben los principios de transmisión y selección memética en su diseño. En los MA multimeme, el material memético se codifica como parte del genotipo . Posteriormente, el meme decodificado de cada individuo/ cromosoma respectivo se utiliza para realizar un refinamiento local. El material memético se transmite luego a través de un mecanismo de herencia simple de padre a hijo(s). Por otro lado, en los MA hiperheurísticos y meta-Lamarckianos, el grupo de memes candidatos considerados competirá, en función de sus méritos pasados ​​en la generación de mejoras locales a través de un mecanismo de recompensa, decidiendo qué meme se seleccionará para proceder a futuros refinamientos locales. Los memes con una recompensa más alta tienen una mayor probabilidad de seguir utilizándose. Para una revisión sobre MA de segunda generación; es decir, MA que considera múltiples métodos de aprendizaje individuales dentro de un sistema evolutivo, se remite al lector a. [16]

Tercera generación

La coevolución [17] y los memes autogenerados [18] pueden considerarse como memes de tercera generación en los que se han considerado los tres principios que satisfacen las definiciones de un sistema evolutivo básico. A diferencia del meme de segunda generación, que supone que los memes que se van a utilizar se conocen a priori, el meme de tercera generación utiliza una búsqueda local basada en reglas para complementar las soluciones candidatas dentro del sistema evolutivo, capturando así características o patrones que se repiten regularmente en el espacio del problema.

Algunas notas de diseño

El método de aprendizaje/meme utilizado tiene un impacto significativo en los resultados de mejora, por lo que se debe tener cuidado al decidir qué meme o memes utilizar para un problema de optimización particular. [12] [16] [19] La frecuencia e intensidad del aprendizaje individual definen directamente el grado de evolución (exploración) frente al aprendizaje individual (explotación) en la búsqueda de MA, para un presupuesto computacional limitado fijo dado. Claramente, un aprendizaje individual más intenso proporciona una mayor probabilidad de convergencia a los óptimos locales, pero limita la cantidad de evolución que se puede gastar sin incurrir en recursos computacionales excesivos. Por lo tanto, se debe tener cuidado al establecer estos dos parámetros para equilibrar el presupuesto computacional disponible para lograr el máximo rendimiento de la búsqueda. Cuando solo una parte de los individuos de la población experimentan aprendizaje, es necesario considerar la cuestión de qué subconjunto de individuos mejorar para maximizar la utilidad de la búsqueda de MA. Por último, pero no menos importante, se debe decidir si el individuo respectivo debe cambiarse por el éxito del aprendizaje (aprendizaje lamarckiano) o no (aprendizaje baldwiniano). Por lo tanto, se deben responder las siguientes cinco preguntas de diseño [15] [19] [20] , la primera de las cuales es abordada por todos los representantes de segunda generación anteriores durante una ejecución de MA, mientras que la forma extendida de aprendizaje meta-lamarckiano de [15] expande esto a las primeras cuatro decisiones de diseño.

Selección de un método de aprendizaje individual o meme que se utilizará para un problema o individuo en particular

En el contexto de la optimización continua, el aprendizaje individual existe en forma de heurísticas locales o métodos enumerativos exactos convencionales. [21] Los ejemplos de estrategias de aprendizaje individual incluyen la escalada de colinas , el método Simplex, el método Newton/Quasi-Newton, los métodos de puntos interiores , el método de gradiente conjugado , la búsqueda de línea y otras heurísticas locales. Tenga en cuenta que la mayoría de los métodos de aprendizaje individual comunes son deterministas.

En la optimización combinatoria, por otro lado, los métodos de aprendizaje individuales suelen existir en forma de heurísticas (que pueden ser deterministas o estocásticas) que se adaptan a un problema de interés específico. Los procedimientos y esquemas heurísticos típicos incluyen el intercambio de k genes, el intercambio de aristas, la primera mejora y muchos otros.

Determinación de la frecuencia de aprendizaje individual

Una de las primeras cuestiones pertinentes al diseño de algoritmos meméticos es considerar la frecuencia con la que se debe aplicar el aprendizaje individual; es decir, la frecuencia de aprendizaje individual. En un caso, [19] se consideró el efecto de la frecuencia de aprendizaje individual en el rendimiento de la búsqueda de MA donde se investigaron varias configuraciones de la frecuencia de aprendizaje individual en diferentes etapas de la búsqueda de MA. Por el contrario, se demostró en otro lugar [22] que puede valer la pena aplicar el aprendizaje individual en cada individuo si la complejidad computacional del aprendizaje individual es relativamente baja.

Selección de los individuos a los que se aplica el aprendizaje individual

En cuanto a la selección de individuos apropiados entre la población de EA que deberían experimentar un aprendizaje individual, se estudiaron estrategias basadas en la aptitud y en la distribución para adaptar la probabilidad de aplicar el aprendizaje individual en la población de cromosomas en problemas de búsqueda paramétrica continua, y Land [23] extendió el trabajo a problemas de optimización combinatoria . Bambha et al. introdujeron una técnica de calentamiento simulado para integrar sistemáticamente el aprendizaje individual parametrizado en algoritmos evolutivos para lograr la máxima calidad de la solución. [24]

Especificación de la intensidad del aprendizaje individual

La intensidad de aprendizaje individual, , es la cantidad de presupuesto computacional asignado a una iteración de aprendizaje individual; es decir, el presupuesto computacional máximo permitido para que el aprendizaje individual gaste en mejorar una única solución. a i yo {\displaystyle t_{il}}

Elección entre aprendizaje lamarckiano o baldwiniano

Se debe decidir si una mejora encontrada debe funcionar solo por la mejor aptitud (aprendizaje baldwiniano) o si también el individuo se adapta en consecuencia (aprendizaje lamarckiano). En el caso de un EA, esto significaría un ajuste del genotipo. Esta cuestión ha sido discutida de manera controvertida para los EA en la literatura ya en la década de 1990, afirmando que el caso de uso específico juega un papel importante. [25] [26] [27] El trasfondo del debate es que la adaptación del genoma puede promover la convergencia prematura . Este riesgo se puede mitigar de manera efectiva con otras medidas para equilibrar mejor las búsquedas de amplitud y profundidad, como el uso de poblaciones estructuradas . [28]

Aplicaciones

Los algoritmos meméticos se han aplicado con éxito a una multitud de problemas del mundo real. Aunque muchas personas emplean técnicas estrechamente relacionadas con los algoritmos meméticos, también se emplean nombres alternativos como algoritmos genéticos híbridos .

Los investigadores han utilizado algoritmos meméticos para abordar muchos problemas NP clásicos . Por citar algunos de ellos: partición de grafos , problema de mochila multidimensional , problema del viajante , problema de asignación cuadrática , problema de cobertura de conjuntos , coloración mínima de grafos , problema de conjuntos independientes máximos , problema de empaquetamiento de contenedores y problema de asignación generalizada .

Las aplicaciones más recientes incluyen (pero no se limitan a) análisis de negocios y ciencia de datos , [3] entrenamiento de redes neuronales artificiales , [29] reconocimiento de patrones , [30] planificación de movimiento robótico , [31] orientación de haz , [32] diseño de circuitos , [33] restauración del servicio eléctrico, [34] sistemas médicos expertos , [35] programación de una sola máquina , [36] programación automática de horarios (en particular, el horario de la NHL ), [37] programación de personal , [38] optimización de turnos de enfermeras , [39] asignación de procesadores, [40] programación de mantenimiento (por ejemplo, de una red de distribución eléctrica), [41] programación de múltiples flujos de trabajo para recursos heterogéneos restringidos, [42] problema de la mochila multidimensional, [43] diseño VLSI , [44] agrupamiento de perfiles de expresión genética , [45] selección de características/genes, [46] [47] determinación de parámetros para hardware inyección de fallas, [48] y selección de características multiobjetivo y multiclase . [49] [50]

Actividades recientes en algoritmos meméticos

  • Taller IEEE sobre algoritmos meméticos (WOMA 2009). Presidentes del programa: Jim Smith, Universidad del Oeste de Inglaterra, Reino Unido; Yew-Soon Ong, Universidad Tecnológica de Nanyang, Singapur; Gustafson Steven, Universidad de Nottingham, Reino Unido; Meng Hiot Lim, Universidad Tecnológica de Nanyang, Singapur; Natalio Krasnogor, Universidad de Nottingham, Reino Unido
  • Memetic Computing Journal, primer número apareció en enero de 2009.
  • Congreso Mundial IEEE sobre Inteligencia Computacional 2008 (WCCI 2008), Hong Kong, Sesión especial sobre algoritmos meméticos.
  • Número especial sobre 'Tendencias emergentes en Soft Computing - Algoritmo memético' Archivado el 27 de septiembre de 2011 en Wayback Machine , Soft Computing Journal, completado y en prensa, 2008.
  • Grupo de trabajo sobre tecnologías emergentes de la Sociedad de Inteligencia Computacional del IEEE sobre computación memética Archivado el 27 de septiembre de 2011 en Wayback Machine
  • Congreso IEEE sobre Computación Evolutiva (CEC 2007), Singapur, Sesión especial sobre algoritmos meméticos.
  • 'Computación memética' de Essential Science Indicators de Thomson Scientific como área de investigación de frente emergente.
  • Número especial sobre algoritmos meméticos, IEEE Transactions on Systems, Man, and Cybernetics - Parte B: Cibernética, Vol. 37, No. 1, febrero de 2007.
  • Avances recientes en algoritmos meméticos, Serie: Estudios en imprecisión y computación blanda, Vol. 166, ISBN  978-3-540-22904-9 , 2005.
  • Número especial sobre algoritmos meméticos, Computación Evolutiva, otoño de 2004, vol. 12, núm. 3: v-vi.

Referencias

  1. ^ Poonam Garg (abril de 2009). "Una comparación entre el algoritmo memético y el algoritmo genético para el criptoanálisis del algoritmo estándar de cifrado de datos simplificado". Revista internacional de seguridad de redes y sus aplicaciones (IJNSA) . 1 (1). arXiv : 1004.0574 . Código Bibliográfico :2010arXiv1004.0574G.
  2. ^ ab Moscato, Pablo (1989), Sobre evolución, búsqueda, optimización, algoritmos genéticos y artes marciales: hacia algoritmos meméticos, Programa de computación concurrente de Caltech, Informe técnico 826, Pasadena, CA: Instituto Tecnológico de California
  3. ^ ab Moscato, P.; Mathieson, L. (2019). "Algoritmos meméticos para análisis de negocios y ciencia de datos: una breve reseña". Análisis de negocios y consumo: nuevas ideas . Springer . págs. 545–608. doi :10.1007/978-3-030-06222-4_13. ISBN 978-3-030-06221-7.ID S2C  173187844.
  4. ^ Chen, XS; Ong, YS; Lim, MH; Tan, KC (2011). "Un estudio multifacético sobre computación memética". IEEE Transactions on Evolutionary Computation . 15 (5): 591–607. doi :10.1109/tevc.2011.2132725. S2CID  17006589.
  5. ^ Chen, XS; Ong, YS; Lim, MH (2010). "Frontera de investigación: computación memética: pasado, presente y futuro". Revista IEEE Computational Intelligence . 5 (2): 24–36. doi :10.1109/mci.2010.936309. hdl : 10356/148175 . S2CID  17955514.
  6. ^ Wolpert, DH; Macready, WG (abril de 1997). "No hay teoremas gratuitos para la optimización". IEEE Transactions on Evolutionary Computation . 1 (1): 67–82. doi :10.1109/4235.585893. S2CID  5553697.
  7. ^ Wolpert, DH; Macready, WG (1995). "No hay teoremas de almuerzo gratis para búsqueda". Informe técnico SFI-TR-95-02-010 . Instituto Santa Fe. S2CID  12890367.
  8. ^ Davis, Lawrence (1991). Manual de algoritmos genéticos . Nueva York: Van Nostrand Reinhold. ISBN 0-442-00173-8.OCLC 23081440  .
  9. ^ Moscato, Pablo (1989), Sobre evolución, búsqueda, optimización, algoritmos genéticos y artes marciales: hacia algoritmos meméticos, Programa de computación concurrente de Caltech, Informe técnico 826, Pasadena, CA: Instituto Tecnológico de California, págs. 19-20
  10. ^ Krasnogor, Natalio (2002). Estudios sobre la teoría y el espacio de diseño de algoritmos meméticos (PhD). Bristol, Reino Unido: Universidad del Oeste de Inglaterra. p. 23.
  11. ^ Krasnogor, Natalio (1999). "Coevolución de genes y memes en algoritmos meméticos". Taller de estudiantes de posgrado : 371.
  12. ^ ab Kendall G. y Soubeiga E. y Cowling P. Función de elección e hiperheurística aleatoria (PDF) . 4.ª Conferencia de Asia y el Pacífico sobre evolución simulada y aprendizaje. SEAL 2002. págs. 667–671.
  13. ^ Burke EK; Gendreau M.; Hyde M.; Kendall G.; Ochoa G.; Ouml; zcan E.; Qu R. (2013). "Hiperheurística: un estudio del estado del arte". Revista de la Sociedad de Investigación Operativa . 64 (12): 1695–1724. CiteSeerX 10.1.1.384.9743 . doi :10.1057/jors.2013.71. S2CID  3053192. 
  14. ^ YS Ong y AJ Keane (2004). "Aprendizaje metalamarckiano en algoritmos meméticos" (PDF) . IEEE Transactions on Evolutionary Computation . 8 (2): 99–110. doi :10.1109/TEVC.2003.819944. S2CID  11003004.
  15. ^ abc Jakob, Wilfried (septiembre de 2010). "Un marco de adaptación general basado en costo-beneficio para algoritmos multimeme". Computación memética . 2 (3): 201–218. doi :10.1007/s12293-010-0040-9. ISSN  1865-9284. S2CID  167807.
  16. ^ ab Ong YS y Lim MH y Zhu N. y Wong KW (2006). "Clasificación de algoritmos meméticos adaptativos: un estudio comparativo" (PDF) . IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics . 36 (1): 141–152. doi :10.1109/TSMCB.2005.856143. hdl :10220/4653. PMID  16468573. S2CID  818688.
  17. ^ Smith JE (2007). "Algoritmos meméticos coevolutivos: una revisión y un informe de progreso" (PDF) . IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics . 37 (1): 6–17. doi :10.1109/TSMCB.2006.883273. PMID  17278554. S2CID  13867280.
  18. ^ Krasnogor N. y Gustafson S. (2002). "Hacia algoritmos meméticos verdaderamente "meméticos": discusión y prueba de conceptos". Avances en computación inspirada en la naturaleza: talleres PPSN VII. PEDAL (Laboratorio de arquitecturas paralelas emergentes y distribuidas). Universidad de Reading .
  19. ^ abc Hart, William E. (diciembre de 1994). Optimización global adaptativa con búsqueda local (PhD). San Diego, CA: Universidad de California. CiteSeerX 10.1.1.473.1370 . 
  20. ^ Hart, William E.; Krasnogor, Natalio; Smith, Jim E. (septiembre de 2004). "Editorial Introduction Special Issue on Memetic Algorithms". Computación evolutiva . 12 (3): v–vi. doi :10.1162/1063656041775009. ISSN  1063-6560. S2CID  9912363.
  21. ^ Schwefel, Hans-Paul (1995). Evolución y búsqueda del óptimo. Nueva York: Wiley. ISBN 0-471-57148-2.
  22. ^ Ku, KWC; Mak, MW; Siu., W. C (2000). "Un estudio de la evolución lamarckiana de redes neuronales recurrentes". IEEE Transactions on Evolutionary Computation . 4 (1): 31–42. doi :10.1109/4235.843493. hdl : 10397/289 .
  23. ^ Land, MWS (1998). Algoritmos evolutivos con búsqueda local para optimización combinatoria (tesis). San Diego, CA: Universidad de California. CiteSeerX 10.1.1.55.8986 . ISBN  978-0-599-12661-9.
  24. ^ Bambha NK y Bhattacharyya SS y Teich J. y Zitzler E. (2004). "Integración sistemática de la búsqueda local parametrizada en algoritmos evolutivos". IEEE Transactions on Evolutionary Computation . 8 (2): 137–155. doi :10.1109/TEVC.2004.823471. S2CID  8303351.
  25. ^ Gruau, Frédéric; Whitley, Darrell (septiembre de 1993). "Añadiendo aprendizaje al desarrollo celular de redes neuronales: evolución y el efecto Baldwin". Computación evolutiva . 1 (3): 213–233. doi :10.1162/evco.1993.1.3.213. ISSN  1063-6560. S2CID  15048360.
  26. ^ Orvosh, David; Davis, Lawrence (1993), Forrest, Stephanie (ed.), "¿Deberíamos reparar? Algoritmos genéticos, optimización combinatoria y restricciones de viabilidad", Actas de la 5.ª Conferencia Internacional sobre Algoritmos Genéticos (ICGA) , San Mateo, CA, EE. UU.: Morgan Kaufmann, pág. 650, ISBN 978-1-55860-299-1, S2CID10098180 ​
  27. ^ Whitley, Darrell; Gordon, V. Scott; Mathias, Keith (1994), Davidor, Yuval; Schwefel, Hans-Paul; Männer, Reinhard (eds.), "La evolución lamarckiana, el efecto Baldwin y la optimización de funciones", Parallel Problem Solving from Nature — PPSN III , vol. 866, Berlín, Heidelberg: Springer Berlin Heidelberg, págs. 5–15, doi :10.1007/3-540-58484-6_245, ISBN 978-3-540-58484-1, consultado el 7 de febrero de 2023
  28. ^ Jakob, Wilfried (septiembre de 2010). "Un marco de adaptación general basado en costo-beneficio para algoritmos multimeme". Memetic Computing . p.207. 2 (3): 201–218. doi :10.1007/s12293-010-0040-9. ISSN  1865-9284. S2CID  167807.
  29. ^ Ichimura, T.; Kuriyama, Y. (1998). Aprendizaje de redes neuronales con AG híbrido paralelo utilizando una función de ruta real . IEEE International Joint Conference on Neural Networks. Vol. 2. Nueva York, NY. págs. 1131–1136. doi :10.1109/IJCNN.1998.685931.
  30. ^ Aguilar, J.; Colmenares, A. (1998). "Resolución de problemas de reconocimiento de patrones utilizando un algoritmo híbrido de aprendizaje de redes neuronales genéticas/aleatorias". Análisis de patrones y aplicaciones . 1 (1): 52–61. doi :10.1007/BF01238026. S2CID  15803359.
  31. ^ Ridao, M.; Riquelme, J.; Camacho, E.; Toro, M. (1998). "Un algoritmo de búsqueda evolutivo y local para la planificación del movimiento de dos manipuladores". Tareas y métodos en inteligencia artificial aplicada . Apuntes de clase en informática. Vol. 1416. Springer-Verlag. págs. 105–114. CiteSeerX 10.1.1.324.2668 . doi :10.1007/3-540-64574-8_396. ISBN .  978-3-540-64574-0.
  32. ^ Haas, O.; Burnham, K.; Mills, J. (1998). "Optimización de la orientación del haz en radioterapia utilizando geometría planar". Física en Medicina y Biología . 43 (8): 2179–2193. Bibcode :1998PMB....43.2179H. doi :10.1088/0031-9155/43/8/013. PMID  9725597. S2CID  250856984.
  33. ^ Harris, S.; Ifeachor, E. (1998). "Diseño automático de filtros de muestreo de frecuencia mediante técnicas de algoritmos genéticos híbridos". IEEE Transactions on Signal Processing . 46 (12): 3304–3314. Bibcode :1998ITSP...46.3304H. doi :10.1109/78.735305.
  34. ^ Augugliaro, A.; Dusonchet, L.; Riva-Sanseverino, E. (1998). "Restauración del servicio en redes de distribución compensadas utilizando un algoritmo genético híbrido". Electric Power Systems Research . 46 (1): 59–66. Bibcode :1998EPSR...46...59A. doi :10.1016/S0378-7796(98)00025-X.
  35. ^ Wehrens, R.; Lucasius, C.; Buydens, L.; Kateman, G. (1993). "HIPS, un sistema experto híbrido autoadaptativo para la interpretación del espectro de resonancia magnética nuclear utilizando algoritmos genéticos". Analytica Chimica Acta . 277 (2): 313–324. Bibcode :1993AcAC..277..313W. doi :10.1016/0003-2670(93)80444-P. hdl : 2066/112321 . S2CID  53954763.
  36. ^ França, P.; Mendes, A.; Moscato, P. (1999). Algoritmos meméticos para minimizar la tardanza en una sola máquina con tiempos de configuración dependientes de la secuencia . Actas de la 5.ª Conferencia Internacional del Decision Sciences Institute. Atenas, Grecia. págs. 1708–1710. S2CID  10797987.
  37. ^ Costa, Daniel (1995). "Un algoritmo de búsqueda tabú evolutivo y el problema de programación NHL". INFOR: Sistemas de información e investigación operativa . 33 (3): 161–178. doi :10.1080/03155986.1995.11732279. S2CID  15491435.
  38. ^ Aickelin, U. (1998). Programación de turnos de enfermería con algoritmos genéticos . Actas de la conferencia de investigación operativa para jóvenes de 1998. Guildford, Reino Unido. arXiv : 1004.2870 .
  39. ^ Ozcan, E. (2007). "Memes, autogeneración y programación de turnos de enfermeras". Práctica y teoría de horarios automatizados VI . Apuntes de clase en informática. Vol. 3867. Springer-Verlag. págs. 85-104. doi :10.1007/978-3-540-77345-0_6. ISBN . 978-3-540-77344-3.
  40. ^ Ozcan, E.; Onbasioglu, E. (2007). "Algoritmos meméticos para la optimización de código paralelo". Revista internacional de programación paralela . 35 (1): 33–61. doi :10.1007/s10766-006-0026-x. S2CID  15182941.
  41. ^ Burke, E.; Smith, A. (1999). "Un algoritmo memético para programar el mantenimiento planificado de la red nacional". Journal of Experimental Algorithmics . 4 (4): 1–13. doi : 10.1145/347792.347801 . S2CID  17174080.
  42. ^ Jakob, Wilfried; Strack, Sylvia; Quinte, Alexander; Bengel, Günther; Stucky, Karl-Uwe; Süß, Wolfgang (22 de abril de 2013). "Reprogramación rápida de múltiples flujos de trabajo para recursos heterogéneos restringidos mediante computación memética de múltiples criterios". Algorithms . 6 (2): 245–277. doi : 10.3390/a6020245 . ISSN  1999-4893.
  43. ^ Ozcan, E.; Basaran, C. (2009). "Un estudio de caso de algoritmos meméticos para la optimización de restricciones". Soft Computing: una fusión de fundamentos, metodologías y aplicaciones . 13 (8–9): 871–882. ​​CiteSeerX 10.1.1.368.7327 . doi :10.1007/s00500-008-0354-4. S2CID  17032624. 
  44. ^ Areibi, S.; Yang, Z. (2004). "Algoritmos meméticos efectivos para la automatización del diseño VLSI = algoritmos genéticos + búsqueda local + agrupamiento multinivel". Computación evolutiva . 12 (3): 327–353. doi :10.1162/1063656041774947. PMID  15355604. S2CID  2190268.
  45. ^ Merz, P.; Zell, A. (2002). "Agrupamiento de perfiles de expresión génica con algoritmos meméticos". Resolución de problemas en paralelo a partir de la naturaleza — PPSN VII . Apuntes de clase en informática. Vol. 2439. Springer . págs. 811–820. doi :10.1007/3-540-45712-7_78. ISBN 978-3-540-44139-7.
  46. ^ Zexuan Zhu, YS Ong y M. Dash (2007). "Algoritmo genético integrado en manta de Markov para selección de genes". Reconocimiento de patrones . 49 (11): 3236–3248. Código Bibliográfico :2007PatRe..40.3236Z. doi :10.1016/j.patcog.2007.02.007.
  47. ^ Zexuan Zhu, YS Ong y M. Dash (2007). "Algoritmo de selección de características de filtro envolvente utilizando un marco memético". IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics . 37 (1): 70–76. doi :10.1109/TSMCB.2006.883267. hdl : 10338.dmlcz/141593 . PMID  17278560. S2CID  18382400.
  48. ^ "Inteligencia artificial para la selección de parámetros de inyección de fallas | Marina Krček | Seminario web de Hardwear.io". hardwear.io . Consultado el 21 de mayo de 2021 .
  49. ^ Zhu, Zexuan; Ong, Yew-Soon; Zurada, Jacek M (abril de 2010). "Identificación de genes completos y parciales relevantes para la clase". Transacciones IEEE/ACM sobre biología computacional y bioinformática . 7 (2): 263–277. doi :10.1109/TCBB.2008.105. ISSN  1545-5963. PMID  20431146. S2CID  2904028.
  50. ^ G. Karkavitsas y G. Tsihrintzis (2011). "Clasificación automática de géneros musicales mediante algoritmos genéticos híbridos". Sistemas y servicios multimedia interactivos inteligentes . Innovación inteligente, sistemas y tecnologías. Vol. 11. Springer. págs. 323–335. doi :10.1007/978-3-642-22158-3_32. ISBN . 978-3-642-22157-6. Número de identificación  S2C15011089.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Algoritmo_memético&oldid=1229646531"