martes, 13 de enero de 2015

609464@unizar.es

Análisis de clúster:
El Análisis Cluster, conocido como Análisis de Conglomerados, es una técnica estadística multivariante que busca agrupar elementos (personas, cosas, animales, plantas,  variables, etc.) tratando de lograr la máxima homogeneidad en cada grupo y la mayor diferencia entre los grupos, es decir, crear grupos donde haya cohesión interna y aislamiento externo del grupo. Se trata de una técnica descriptiva, ateórica y no interfacial.
El Análisis Cluster es un método basado en criterios geométricos y se utiliza fundamentalmente como una técnica exploratoria, descriptiva pero no explicativa, permite descubrir estructuras en los datos que no son evidentes pero que pueden ser muy útiles una vez encontrados.

Diseño de Experimentos (DOE)

Hola a todos,



El tema del que me ha tocado hablar es sobre el Ánalisis de Componentes principales (PCA). Cómo ya ha explicado Jorge, PCA es una técnica estadística multivariable, cuyo objetivo es reducir el número de variables posible perdiendo la menor cantidad de información. Una técnica muy similar y que se aplica bastante en la industria es el Diseño de Experimentos (DOE), que trata de reducir al mínimo el número de experimentos, obteniendo al mismo tiempo la máxima información de ellos.



Con ello lo que pretende es:



- Minimizar los costes del experimento.

- Facilitar la interpretación de resultados.

- Disminuir el tiempo de diseño de un producto/proceso.



Es decir, analiza las variables que afectan a un proceso y la influencia que tienen en el producto final.



Os dejo aquí un ejemplo en el que se utiliza el diseño de experimentos para analizar las variables de la soldadura láser para unir los laterales y el techo de un coche con el objetivo de reducir el número de poros en el cordón de soldadura:



http://www.um.edu.uy/_upload/_investigacion/web_investigacion_55_Memoria_7_DisenodeExperimentos.pdf

Redes neuronales

http://www.techopedia.com/definition/5967/artificial-neural-network-ann

Mª Fernanda Aguilar

CONCEPTO DE PLASMÓN 
Plasmón es un cuanto de oscilación del plasma, y éste es una cuasipartícula resultado de la cuantización  de las oscilaciones del plasma, de la misma forma que un fotón es la cuantización de ondas electromagnéticas.  Por tanto, los plasmones son oscilaciones de la densidad del gas de Fermi (gas de electrones libres), usualmente a frecuencias ópticas. 
PLASMONES SUPERFICIALES
La luz puede quedar atrapada en la superficie de un metal. Esa “luz superficial” involucra a los electrones libres de la superficie metálica. Este tipo más complejo de onda recibe el nombre de “plasmón superficial”.
Los metales, además de reflejar luz, tienen una propiedad óptica menos conocida: bajo ciertas condiciones la luz puede viajar sobre las superficies metálicas sin alejarse de ellas. Debido a esta propiedad la luz viaja por las tres dimensiones del espacio y se puede confinar con facilidad. En realidad esta “luz superficial” es una onda mucho más compleja que la luz normal, ya que no cosiste únicamente un campo electromagnético, sino que involucra los electrones libres que se encuentran en los metales.
Es por esta razón que los plasmones tendrían en los circuitos ópticos su aplicación más prometedora. Pero, por ahora, la principal aplicación son los sensores moleculares basados en la resonancia de plasmones superficiales.
Por otro lado, los plasmones de superficie son usados para controlar los colores de los materiales, esto es posible debido a que la forma de la superficie controla el tipo de plasmones superficiales que se pueden acoplar y propagar a través de ella. Esto a su vez controla la interacción de la luz con la superficie. Estos efectos son fáciles de ver en los vitrales que adornan las catedrales medievales.
Principio Resonancia de plasmón superficial:

https://www.youtube.com/watch?v=sM-VI3alvAI

lunes, 12 de enero de 2015

Plasmón superficial

CONCEPTO DE PLASMÓN
Plasmón es un cuanto de oscilación del plasma, y éste es una cuasipartícula resultado de la cuantización  de las oscilaciones del plasma, de la misma forma que un fotón es la cuantización de ondas electromagnéticas.  Por tanto, los plasmones son oscilaciones de la densidad del gas de Fermi (gas de electrones libres), usualmente a frecuencias ópticas.

PLASMONES SUPERFICIALES

La luz puede quedar atrapada en la superficie de un metal. Esa “luz superficial” involucra a los electrones libres de la superficie metálica. Este tipo más complejo de onda recibe el nombre de “plasmón superficial”.
Los metales, además de reflejar luz, tienen una propiedad óptica menos conocida: bajo ciertas condiciones la luz puede viajar sobre las superficies metálicas sin alejarse de ellas. Debido a esta propiedad la luz viaja por las tres dimensiones del espacio y se puede confinar con facilidad. En realidad esta “luz superficial” es una onda mucho más compleja que la luz normal, ya que no cosiste únicamente un campo electromagnético, sino que involucra los electrones libres que se encuentran en los metales.
Es por esta razón que los plasmones tendrían en los circuitos ópticos su aplicación más prometedora. Pero, por ahora, la principal aplicación son los sensores moleculares basados en la resonancia de plasmones superficiales.
Por otro lado, los plasmones de superficie son usados para controlar los colores de los materiales, esto es posible debido a que la forma de la superficie controla el tipo de plasmones superficiales que se pueden acoplar y propagar a través de ella. Esto a su vez controla la interacción de la luz con la superficie. Estos efectos son fáciles de ver en los vitrales que adornan las catedrales medievales.

Principio Resonancia de plasmón superficial:

https://www.youtube.com/watch?v=sM-VI3alvAI

Efecto Plasmón

Hola chicos, aquí os dejo algo de información sobre el efecto plasmón:
La resonancia de plasmón superficial (SPR) es el fenómeno según el cual se produce  la oscilación colectiva de los electrones de conducción de un metal debido a una luz polarizada incidente. Esta luz es dirigida desde una capa de mayor índice de refracción (un prisma) hacia una de menor índice de refracción.  La condición de resonancia se establece cuando la frecuencia de los fotones de luz coincide con la frecuencia natural de oscilación de los electrones de superficie contra la fuerza de recuperación de núcleos positivos. SPR es la base de muchas herramientas estándar para la medición de la adsorción de materiales sobre las superficies metálicas planas o sobre la superficie de las nanopartículas de metal.
Este fenómeno se ha utilizado para aumentar la sensibilidad de superficie de varias mediciones espectroscópicas incluyendo fluorescencia, dispersión de Raman, y la segunda generación de armónicos. Sin embargo, en su forma más simple, las medidas de reflectividad SPR se pueden utilizar para detectar adsorción de moléculas tales como polímeros, ADN o proteínas, etc. El mecanismo de detección se basa en que las moléculas adsorbentes causan cambios en el índice local de refracción, provocando la resonancia de las ondas de plasmones superficiales. Este método proporciona un alto contraste de las imágenes en función de la cantidad adsorbida de moléculas, algo similar a la microscopía de ángulo de Brewster.

También he encontrado un artículo interesante sobre su aplicación en técnicas analíticas:

domingo, 11 de enero de 2015

Almudena Cristóbal Ayuso

Un dendograma es un diagrama en forma de árbol que representa la jerarquía de categorías según el grado de similitud y características compartidas, típico de la taxonomía biológica.
Es la forma de representación que persigue un análisis clúster. Se trata, por tanto, de la representación gráfica en forma de árbol que resume el proceso de agrupación en un análisis de clústers.

Los objetos similares se conectan mediante enlaces cuya posición en el diagrama está determinada por el nivel de similitud/disimilitud entre los objetos. Permite apreciar claramente las relaciones de agrupación entre los datos e incluso entre grupos de ellos, aunque no las relaciones de similaridad o cercanía entre categorías. Teniendo en cuenta todas las subdivisiones podemos hacernos una idea sobre los criterios de agrupación, la distancia entre los datos según las relaciones establecidas, etc.
Para entender la construcción de un dendograma y su significado se puede utilizar un ejemplo sencillo que lo ilustre. En el siguiente documento de análisis de clúster se muestra de una manera muy simple en qué consiste la construcción de los mismos: 




Otro documento que me ha resultado interesante sobre técnicas de análisis multivariante, y que incluye, por supuesto al dendograma, es el siguiente tema que aquí os dejo, de la Universidad Autónoma de Madrid:


sábado, 10 de enero de 2015

Verónica Gil Toro

Hola chicos, os dejo la información que he encontrado sobre el análisis de clusters:
se encuentra dentro del análisis multivariante y tiene como objetivo la clasificación de individuos en grupos distintos de manera que exista la mayor homogeneidad posible dentro de los grupos, con respecto a ciertas variables que pueden ser cuantitativas o cualitativas.  


En la siguiente web http://www.ugr.es/~bioestad/_private/cpfund7.pdf esta todo muy explicado.

viernes, 9 de enero de 2015

Análisis de Componentes Principales

Hola, qué tal? Os dejo la tarea que ha mandado Jesús esta tarde acerca del Análisis de Componentes Principales (para que luego no se queje de que no trabajamos jajajaja)

El Análisis de Componentes Principales (ACP o PCA en inglés) se comenzó a desarrollar a finales del siglo XIX y fue estudiado más profundamente por Hotelling en los años 30 del siglo pasado. Debido a su complejidad matemática, no se popularizó hasta la aparición de los ordenadores.

El PCA es una técnica estadística multivariante de síntesis de información que permite reducir el número de variables de las que dependen unos datos, perdiendo la menor cantidad de información posible.

De forma algo más “elegante” se puede decir que esta técnica combina linealmente las variables originales de partida, obteniendo unas nuevas variables incorrelacionadas denominadas componentes principales o factores, que eliminan la información repetida o redundante.

El interés de este análisis se fundamenta en que permite explicar fenómenos cuya información se cifra en muchas variables más o menos correlacionadas, trabajando con las varianzas de diferentes grupos de datos.

Para entederlo un poco mejor, os dejo en este enlace

un ejemplo en el que aparecen una serie de notas de alumnos de diferentes asignaturas del bachillerato y la posible relación que existe entre aprobar ciertas asignaturas u otras. A mí me ha ayudado el ejemplo.

También os dejo otro enlace donde aparece más desarrollada la parte teórica, con matrices y tal.


Un saludo y buen finde!