Desviación estándar y tiempo de análisis en los espectrómetros XL2, XL3, DXL
El uso del tiempo de análisis en los espectrómetros Niton de Thermo Fisher Scientific, es uno de los factores más importantes al momento de obtener un buen resultado, por lo general los usuarios no le dan un buen uso al tiempo, esto es quizás en la mayoría de casos debido a la poca información sobre la técnica utilizada por los equipos, y en otros casos por hacer caso omiso a las recomendaciones, volviendo el tiempo de análisis un paradigma que puede aumentar o disminuir la desviación estándar de los resultados y por ende el porcentaje de error.
La técnica usada por los equipos niton es llamada fluorescencia de rayos X, en resumidas cuentas se basa en usar un detector y un tubo de rayos X, este último emite rayos X al material, el cual como todo en el universo, está compuesto de un núcleo y electrones, los cuales se encuentran en unos orbitales alrededor del núcleo, estos electrones son excitados por los rayos X y empiezan saltar de sus orbitales, el movimiento de un electrón hacia otro orbital produce una energía y esta energía es captada por el detector y cualificada en un espectro en forma de picos, la posición y magnitud del pico, indica el o los elementos que componen el material. Esta es una técnica superficial, es decir, que solo analiza una capa muy delgada del material, 0.7 mm de profundidad para ser más exactos.
Se debe tener en cuenta que el equipo cuenta con unos límites de detección debido a la potencia del tubo y del detector que este utiliza, es por ello por lo que el equipo presenta una diferencia en los resultados al leer la misma muestra en el mismo lugar, a esto se le conoce como desviación estándar, entre más cercano a cero este el valor de la desviación estándar, mejor es la precisión del equipo, sin embargo, los valores aceptables de desviación estándar cambian dependiendo del modo de análisis, el tipo de muestra y el tipo de espectrómetro, por ejemplo, para el modo de metales preciosos en un espectrómetro XL2 100, se considera una desviación estándar aceptable toda aquella que sea menor a 0.12, para el modo de minería en un espectrómetro XL3T-500 la desviación estándar aceptable debe ser menor 0,3, entre otras.
Realizando un estudio de la desviación estándar vs. el tiempo de análisis en un equipo XL2 100 con un patrón certificado, se puede observar el cambio de la desviación estándar a medida que se aumenta el tiempo de análisis. El estudio de la desviación estándar consiste en ejecutar un reporte de estabilidad, leyendo una muestra en la misma posición 10 veces con un tiempo de análisis de 20 segundos, nuevamente 10 veces con un tiempo de 40 segundos y finalmente 10 veces con un tiempo de 60 segundos, los resultados se muestran en las siguientes gráficas:
Es por ello, que la desviación estándar de los equipos está relacionada y depende directamente del tiempo de análisis con el que se analiza una muestra, como se observan en las figuras 1, 2 y 3, la desviación se acerca cada vez más a cero a medida que se aumenta el tiempo de análisis.
Las recomendaciones para mantener un valor de la desviación estándar aceptable son las siguientes:
- Realizar el chequeo del sistema al inicio de la jornada.
- Realizar análisis de 30 segundos como mínimo.
- En caso de que el valor de la desviación estándar se acerque o supere el valor aceptable, se debe aumentar el tiempo de análisis.
- Realizar análisis en la mesa de medición del espectrómetro o mantener quieta la muestra y la pistola al momento de realizar los análisis.
- La muestra debe estar con la menor humedad posible.
Logrando una mejor precisión en los análisis en cualquiera de los modos de análisis, disminuyendo también el porcentaje de error.