Document Management System

El Statistica Document Management System (SDMS) es una completa y altamente escalable, paquete de soluciones de bases de datos para la gestión de documentos electrónicos.

Se ha diseñado específicamente para garantizar el cumplimiento con FDA 21 CFR Parte 11 reglamentos, la legislación Sarbanes-Oxley, así como la ISO 9000, 9001, 14001 requisitos de documentación.El producto que permite de forma rápida, eficiente y segura la gestión de documentos de cualquier tipo (por ejemplo, encontrarlos, acceder a ellos, la búsqueda de los contenidos, revisar, organizar, editar [con el camino de extracción y control de versiones], aprobar, etc.)

Cómo funciona el Statistica SDMS?

Cumpliendo diversos requisitos de seguridad y funcionalidades necesarias de diversos usuarios, en relación a largas áreas de actividad, el STATISTICA Document Management System aplica un conjunto de opciones para gestionar documentos de modo sencillo, rápido y con seguridad.

Permite que los documentos sean guardados (a través de STATISTICA o de otra aplicación ya existente) en un repositorio de datos seguro. Su interfaz de utilización auto-explicativa permite al usuario realizar todas las operaciones de gestión documental a partir de cualquier ordenador ligado a la red, o acceder vía Internet.

La mayoría de los ejemplos de documentos puede ser mantenida: sea en un formato solamente de lectura (archivo) – pdf – con las adecuadas firmas electrónicas; o en un formato que pueda ser cambiado, para que el usuario pueda hacer las alteraciones que quiera, desde que tenga el permiso necesario. La información no es sustituida, quedando siempre archivado todo el proceso.

Seguridad a través de firmas electrónicas (cumple los requisitos y especificaciones de la norma FDA 21 CFR Part 11). Grupos de usuarios a los cuales se puede permitir crear, cambiar o rever documentos y distintas partes del archivo.

Documentos en el archivo documental no pueden ser eliminados por usuarios finales. Este procedimiento es accesible por el administrador con accesos y privilegios de tope de la cadena administrativa del trabajo. Cada vez que se modifica un documento, una nueva versión es creada y almacenada con notas (metadatos), que identifican tanto la fecha como el autor de los cambios, así como otras informaciones adicionales necesarias y definidas por la propia configuración del sistema.

Documentos con resultados de análisis se pueden bloquear y limitar el acceso a cualquier cambio o producción de nuevas versiones.
Los requisitos de seguimiento y aprobación de los documentos se pueden definir y ser vistos, aprobados y firmados por supervisores específicos antes de ser colocados en locales específicos del repositorio para los cuales se destinan.

Un recorrido de las ediciones de todos los documentos que pueda ser auditable y creado automáticamente, y ser impreso o guardado en formato electrónico para presentarse en conformidad con los organismos reguladores o agencias.

Components Analysis (PCA)

El objetivo del Análisis de Componentes Principales (PCA) es reducir la dimensionalidad de un conjunto de variables al tratar de preservar la mayor cantidad de información contenida en los datos como sea posible.

Estas características de diagnóstico de Statistica PCA son particularmente útiles para el control de procesos y control de calidad, ya que nos proporcionan herramientas analíticas y gráficas efectivas y convenientes para la detección de anomalías que pueden aumentar durante la fase de desarrollo de un producto.Igualmente importantes aplicaciones de la ACP incluyen los datos de diagnóstico, tanto en los niveles de observación y variable. El ámbito de la observación nos ayuda a detectar los valores extremos, mientras que el nivel variable nos proporciona una visión de cómo las variables que contribuyen a las observaciones y se refieren (correlacionar) el uno al otro.

Los datos de diagnóstico de PCA también juegan un papel importante en el procesamiento por lotes, donde la calidad del producto final sólo puede garantizarse mediante la vigilancia constante durante su fase de producción.

Batch-Wise Multi-Way

Aunque el método PLS es muy útil para abordar los problemas CEPM, es estrictamente aplicable a los problemas de dos dimensiones. Por lo tanto, antes de analizar los datos del lote de 3 dimensiones que deben ser transformados.

Procesos por lotes son por el tiempo basado en la naturaleza. No es sólo la trayectoria de las variables de proceso por lotes que varían en el tiempo, sino también la correlación entre ellos.Esto puede lograrse mediante el método de despliegue por lotes. La matriz de 3 dimensiones se desdobla en la dirección de los lotes.

Por lo tanto, cualquier sistema de monitoreo debe incluir implícitamente esta dependencia dinámica en tiempo.

Es por eso que el tiempo sabio despliegue es particularmente adecuado para el seguimiento de lotes en línea, ya que preserva la dimensión temporal que es inherente en el conjunto de datos.

Text Miner

Statistica Text Miner es una extensión opcional de Statistica Data Miner, ideal para traducir los datos no estructurados del texto en grupos significativos y valiosos de la toma de decisiones «de oro».

Analizar el contenido de las páginas web. Por ejemplo, los usuarios pueden proceso y un resumen de todas las páginas web de las empresas en particular, foros, etc¿Cómo se puede utilizar Miner STATISTICA texto?

  •  Incluye notas estructuradas en proyectos de predicción de minería de datos. Por ejemplo, los usuarios pueden incluir respuestas a preguntas de la entrevista abierta, las descripciones de los propios pacientes de los síntomas médicos, etc en los proyectos de minería de datos implican el agrupamiento de los pacientes y los síntomas.

Analizar los grandes repositorios de documentos. Por ejemplo, los usuarios pueden analizar los repositorios de documentos, tales como descripciones de las reclamaciones de seguros, etc, para incluir dicha información en los proyectos de detección de fraudes.

Statistica Text Miner fue diseñado específicamente como una herramienta general y de arquitectura abierta para la minería información no estructurada. La extracción de características y selección y otras herramientas de análisis disponibles en Statistica Text Miner no sólo son aplicables a los documentos de texto o páginas web, pero también puede ser utilizado para indexar, clasificar, agrupar, o no incluir en su análisis de la información no estructurada, como (pre- procesados) mapas de bits importados como matrices de datos, etc.

Processing Documents

Los documentos pueden ser pre-procesado, antes (en realidad, coincidiendo con la) indexación de todos los documentos.

Las reglas de exclusión y las listas de código auxiliar se pueden aplicar para eliminar palabras comunes, pero útil no como «a», «la», «a», «es». A continuación, un algoritmo derivado se aplica de manera que las palabras de Inglés como «recorrido», «viajar», ambos cuentan como casos de «viaje».

A continuación, el programa índice de la «apagó y de tallo» documentos, para crear una cuenta de la frecuencia de todas las palabras y de todos los documentos. Esta «prima-data» (contar) la información es la base para todos los análisis numéricos posteriores.Statistica Text Miner incluye listas de talón y los algoritmos derivados de danés, holandés, Inglés, francés, alemán, italiano, portugués, español, sueco y otros idiomas. Por favor, info@statsoft.com correo electrónico sobre las necesidades de su idioma. listas de código auxiliar se puede editar (aumentado) por el usuario cuando sea necesario. El programa está diseñado para que soporte de idiomas adicionales se pueden agregar con el mínimo esfuerzo.

Data Miner Recipes

Un proceso paso a paso la receta, como para guiarle a través del proceso de minería de datos:

* Conectar a los datos
* Modificar / preparar los datos
* Realizar cálculos
* Revisar los resultados
* Guardar / Implementar
* Los archivos de proyecto se puede crear y guardar en cualquier paso del proceso y de datos Proyectos Miner receta se puede implementar en STATISTICA Enterprise para anotar

Una tendencia general en la minería de datos es el creciente énfasis en soluciones basadas en simples procesos de análisis, en lugar de la creación de cada vez más sofisticadas herramientas de análisis general.

El Statistica Data Miner Receta (IMGD) enfoque proporciona una interfaz gráfica intuitiva para que los que tienen una experiencia limitada de minería de datos para ejecutar una «receta-como» paso a paso del proceso analítico.

Con estos diálogos intuitivos, puede realizar diversas tareas de minería de datos como la regresión, la clasificación y agrupamiento. Otras recetas se pueden construir más rápidamente soluciones a medida. recetas completas se pueden guardar y desplegar como archivos de proyecto a los datos de puntaje.

Association Rules

 

Este módulo contiene una implementación completa de la llamada A-algoritmo para detectar a priori («la minería para») reglas de asociación, tales como «Los clientes que soliciten el producto A, a menudo también para el producto B o C» o «los empleados que dijo cosas positivas sobre iniciativa X, también con frecuencia se quejan de tema Y, pero están contentos con la edición Z «(ver Agrawal y Swami, 1993; Agrawal y Srikant, 1994, Han y Lakshmanan de 2001, véase también Witten y Frank, 2000).

En concreto, el programa detectará las relaciones o asociaciones entre los valores específicos de las variables categóricas en grandes conjuntos de datos. Esta es una tarea común en muchos proyectos de minería de datos aplicada a las bases de datos que contienen registros de transacciones de los clientes (por ejemplo, los artículos comprados por cada cliente), y también en el ámbito de la minería de textos.El módulo de reglas de asociación le permite procesar rápidamente enormes conjuntos de datos de las asociaciones (relaciones), basado en pre-definido «umbral» para la detección de valores.

Al igual que todos los módulos de Statistica, los datos en bases de datos externas pueden ser procesados por el módulo de Statistica de reglas de asociación en el lugar (ver la tecnología de desplazados internos), por lo que el programa está preparado para manejar eficientemente las tareas de análisis muy grande.

Interactive Drill-Down Explorer

 

Un primer paso de muchos proyectos de minería de datos es la de explorar los datos de forma interactiva, para obtener una primera impresión «de los tipos de variables en el análisis, y sus posibles relaciones.

Drill-down Obras Explorer. El «drill-down» metáfora en el contexto de minería de datos resume el funcionamiento básico de este proceso analítico muy bien: El programa le permite seleccionar las observaciones de grandes conjuntos de datos mediante la selección de subgrupos basados en valores específicos o rangos de valores de las variables de interés particular (por ejemplo, género y medio de compra en el ejemplo anterior), en un sentido que puede exponer a las «capas más profundas» o «estratos» en los datos mediante la revisión de los subconjuntos más pequeños de las observaciones seleccionadas por las condiciones de selección cada vez más compleja lógica.El propósito de la interactivo permite profundizar Explorer es proporcionar una combinación de análisis gráfico, exploratorio de datos, tabulación y la herramienta que le permitirá revisar rápidamente las distribuciones de las variables en el análisis, sus relaciones con otras variables, e identificar las observaciones reales que pertenecen a subgrupos específicos en los datos.

Perforación de pozos «arriba». La naturaleza interactiva del Explorador de Drill Down permite no sólo profundizar en los datos o base de datos (grupos selectos de las observaciones con las condiciones de selección cada vez más específicos lógico), sino también a «sintetizar»: En cualquier momento, usted puede seleccionar uno de la variable especificada anteriormente (categoría) y de los grupos-que seleccione de la lista de drill-down condiciones, al procesar los datos del programa a continuación, seleccione sólo las observaciones que encajan en el resto de lógica (el caso) las condiciones de selección, y actualizar en consecuencia los resultados .

General CHAID

Al igual que la aplicación de la clasificación y regresión árboles (GTrees) en STATISTICA, otro método de partición recursiva, la Asamblea General de Chi-cuadrado del módulo de detección automática de interacción, no sólo proporciona una implementación completa de la técnica original, sino que se extiende estos métodos para el análisis de ANOVA / ANCOVA – diseños similares.

Norma CHAID. El análisis CHAID se puede realizar tanto continua y categórica dependiente (criterio) las variables. Numerosas opciones están disponibles para controlar la construcción de árboles jerárquicos: el usuario tiene control sobre el n mínimo por nodo, el número máximo de nodos, y las probabilidades para dividir y para la fusión de categorías, el usuario también puede solicitar búsquedas exhaustivas de la mejor solución (exhaustiva CHAID), las estadísticas de validación V veces se puede calcular para evaluar la estabilidad de la solución final, por problemas de clasificación, los costos de los errores de clasificación definidos por el usuario puede especificar.