martes, 25 de junio de 2013

Herramientas de la calidad

Diagrama de arbol


Un diagrama de árbol es una representación gráfica que muestra los resultados posibles de una serie de experimentos y sus respectivas probabilidades.Ejemplo1Experimento: Se lanza una moneda, si sale águila se lanza un dado y si sale sol se lanza la moneda de nuevo.

FMEA

El Análisis de Modo de Falla y Efecto, mejor conocido como FMEA por las siglas en ingles de Failure ModeAnalysis and Effects es una herramienta simple, versátil y poderosa que ayuda al equipo a identificar los defectos en el proceso que deberían ser eliminados o reducidos. La meta del FMEA es la de delinear los pasos del proceso que están en riesgo de contribuir a una falla.
El FMEA es una aproximación estructurada para:Identificar las formas en las que el proceso puede fallar para cumplir con los requerimientos críticos del cliente.Estimar el riesgo de las causas específicas de esas fallas.Evaluar el plan de control actual para prevenir que ocurran fallas.Priorizar las acciones que tiene que llevarse a cabo para solucionar algún problema en el procesoPero… ¿Cuáles es el propósito y los beneficios del PFMEA?Mientras que el enfoque de equipo en la etapa de Análisis era la identificación de los elementos críticos que controlan la insatisfacción del cliente, con el FMEA se tendrán beneficios adicionales que incluyen la habilidad para:Documentar y darle seguimiento a las acciones que se están llevando a cabo para reducir un riesgo.Identificar los pasos que generan y los que no generan valor.Identificar la variación del proceso causada por el personal o su entrenamiento.Mejorar la calidad y confianza de productos y serviciosReducir el tiempo y costo de desarrollo del producto.Y… ¿Cómo construyo un FMEA?Esta herramienta requiere de la participación y experiencia de un equipo multifuncional para su desarrollo, el FMEA es liderado por la persona que es responsable del sistema, el producto o el servicio que necesita mejorar. Para cada paso del proceso, el equipo debe de identificar:Modos de falla. Las formas con las cuales el requerimiento o el proceso puede fallar para cumplir con lo especificado.Causas potenciales. Son las deficiencias que pueden resultar en un modo de falla. Las causas potenciales son fuentes de variación y están normalmente asociadas a las entradas clave del proceso.Efectos potenciales. Este es el impacto al cliente si el modo de falla no es prevenido o corregido.Una vez que el equipo ha identificado el modo de falla, se calcula el RPN (Risk Priority Number) para cada modo de falla, esto se hace de la siguiente forma:RPN = Severidad X Ocurrencia X Detección.
El máximo valor para RPN es 1000, ya que cada elemento se mide en una escala de 1 a 10 como se muestra en la tabla de abajo.
El FMEA es una herramienta donde se atacan los riesgos en el proceso en base al conocimiento y experiencia de un equipo multifuncional.El FMEA puede ser usado en cualquier momento en cualquier producto, proceso o servicio cuando:Necesitamos hacer un análisis del riesgo.Existe la necesidad de comprender mejor la naturaleza de una falla.Existe la necesidad de identificar los puntos de fallaNos ayuda a ligar las causas con los modos de falla para poder priorizar mediante el RPN, entre mas RPN mayor es el riesgo.


5 'S

Las 5´S herramientas básicas de mejora de la calidad de vida
¿Qué son las 5 S?
Es una práctica de Calidad ideada en Japón referida al “Mantenimiento Integral” de la empresa, no sólo de maquinaria, equipo e infraestructura sino del mantenimiento del entrono de trabajo por parte de todos.En  Ingles se ha dado en llamar “housekeeping” que traducido es “ser amos de casa también en el trabajo”.
Las Iniciales de las 5  S:JAPONES
Seiri
Seiton Seiso
Seiketsu
Shitsuke
CASTELLANO
Clasificación y Descarte
Organización
Limpieza Higiene
Visualización
Disciplina y Compromiso
 
¿Por qué las 5 S?
Es una técnica que se aplica en todo el mundo con excelentes resultados por su sencillez y efectividad. Su aplicación mejora los niveles de Calidad.
Eliminación de Tiempos Muertos.Reducción de Costos. La aplicación de esta Técnica requiere el compromiso personal y duradera para que nuestra empresa sea un autentico modelo de organización, limpieza , seguridad e higiene.Los primeros en asumir este compromiso son los Gerentes y los Jefes y la aplicación de esta  es el ejemplo más claro de resultados acorto plazo. Resultado de Aplicación de las 5 S Estudios estadísticos en empresas de todo el mundo que tienen implantado este sistema demuestran que: Aplicación de 3 primeras S :
 -Reducción del 40% de sus costos de Mantenimiento.      
 -Reducción del 70% del número de accidentes.          
-Crecimiento del 10% de la fiabilidad del equipo.        
 -Crecimiento del 15% del tiempo medio entre fallas.

¿QUÉ BENEFICIOS APORTAN LAS 5S?

La implantación de las 5S se basa en el trabajo en equipo.Los trabajadores se comprometen.Se valoran sus aportaciones y conocimiento. LA MEJORA CONTINUA SE HACE UNA TAREA DE TODOS.Conseguimos una MAYOR PRODUCTIVIDAD que se traduce en: Menos productos defectuosos. Menos averías. Menor nivel de existencias o inventarios. Menos accidentes. Menos movimientos y traslados inútiles.Menor tiempo para el cambio de herramientas.Lograr un MEJOR LUGAR DE TRABAJO para todos, puesto que conseguimos:Más espacio.Orgullo del lugar en el que se trabaja.Mejor imagen ante nuestros clientes.Mayor cooperación y trabajo en equipo.Mayor compromiso y responsabilidad en las tareas.Mayor conocimiento del puesto


La técnica de los 5 porqué

La técnica de los 5 Porqué es un método basado en realizar preguntas para explorar las relaciones de causa-efecto que generan un problema en particular. El objetivo final de los 5 Porqué es determinar la causa raíz de un defecto o problema.Esta técnica se utilizó por primera vez en Toyota durante la evolución de sus metodologías de fabricación, que luego culminarían en el Toyota Production System (TPS). Esta técnica se usa actualmente en muchos ámbitos, y también se utiliza dentro de Six Sigma.

Ejemplo

El siguiente ejemplo sencillo nos muestra el uso de este método. Partimos de un postulado:Mi auto no arranca. (el problema)¿Por qué no arranca? Porque la batería está muerta.¿Por qué la batería está muerta? Porque el alternador no funciona.¿Por qué el alternador no funciona? Porque se rompió la cinta.¿Por qué se rompió la cinta? Porque el alternatdor está fuera de su tiempo útil de vida y no fue reemplazado.¿Por qué no fue reemplazado? Porque no estoy manteniendo mi auto de acuerdo a las recomendaciones del fabricante.Evidentemente, este ejemplo podría seguirse más aún, con más preguntas. Esto sería correcto, ya que el "cinco" en la técnica de los "Cinco Porqué" no es fijo, sino más bien una incitación a hacer varias iteraciones para encontrar la causa raiz.

El análisis de las causa raíz

Una causa raíz es la causa inicial de una cadena de causas que llevan a un efecto de interés. Generalmente, la causa raiz se usa para describir el lugar en la cadena de causas en donde se podría implementar una intervención para prevenir resultados no deseados.Es importante saber cuándo parar con el análisis. En el ejemplo anterior se podría seguir preguntando porqué el auto no tenía mantenimiento, y luego porqué el vehículo tenía un diseño que necesitaba este tipo de mantenimiento.En general es el mismo marco del analista el que determina cuándo debe detenerse el análisis. Por ejemplo, si se ve desde el punto de vista del propietario del auto, entonces el análisis podría detenerse en el quinto porqué. Sin embargo, si el marco de referencia es el fabricante del auto, quien está atendiendo a miles de reclamos de este problema, el punto de detención del análisis tendría que llegar hasta el ámbito del diseño.

Diagrama de afinidad

El Diagrama de Afinidad, es una herramienta que sintetiza un conjunto de datos verbales (ideas, opiniones, temas, expresiones,…) agrupándolos en función de la relación que tienen entre sí. Se basa en el principio de que muchos de estos datos verbales son afines, por lo que pueden reunirse bajo unas pocas ideas generales.La aplicación del diagrama de afinidad está indicada cuando:  Se quiere organizar un conjunto amplio de datos,  se pretende abordar un problema de manera directa,  el tema sobre el que se quiere trabajar es complejo o  es necesario el consenso del grupo.El método-KJ, denominado posteriormente diagrama de afinidad, fue desarrollado en la década de 1960 por el antropólogo japonés Jiro Kawakita. Esta herramietna sorprende por su potencia para organizar datos. Kawakita se preguntó acerca de cómo obtener conclusiones partiendo de una gran cantidad de hechos desordenados. Se planteó como fundamento que los hechos deben hablar por sí mismos, en lugar de imponer ideas preconcebidas o hipótesis sobre ellos. Así, comenzó escribiendo en forma de frase cada dato en una tarjeta individual para, posteriormente, agrupar las tarjetas en función de las relaciones percibidas entre ellos. A cada agrupación le asignó una frase corta, descriptora de los elementos contenidos en ella y de su relación.


Fuente bibliografica:
http://jdbv.blogspot.mx/2008/10/diagrama-de-arbol.html
http://innovando.net/que-es-un-fmea/
http://www.paritarios.cl/especial_las_5s.htm
http://www.dosideas.com/noticias/metodologias/366-la-tecnica-de-los-5-porque.html
http://www.aiteco.com/diagrama-de-afinidad/

lunes, 24 de junio de 2013

Introducción

 La capacidad de un proceso de fabricación se suele interpretar como su aptitud para producir artículos de acuerdo con las especificaciones. También se suele interpretar como la aptitud del proceso o de una sola máquina para cumplir los límites de tolerancia. En este tema se introducen algunas medidas de capacidad de un proceso. El análisis de la capacidad de un proceso deberá realizarse cuando dicho proceso esté bajo control. Dicho análisis se suele iniciar cuando se necesita estudiar un nuevo proceso, cuando se ha modificado algunas de las partes esenciales del proceso cuando se han emplazado una o más maquinas cuando los gráficos de control muestran cierta inestabilidad etc. El análisis estadístico de la capacidad del proceso suele comenzar con un estudio de este para realizar estimaciones de los parámetros fundamentales que definan su funcionamiento; especialmente de los elementos que determinan su variabilidad. Este último aspecto es esencial, puesto que se pueden considerar como un indicador denla uniformidad en el rendimiento. Se u suelen analizar dos tipos de variabilidad:

●La variabilidad instantánea es un instante dado t, que determina la capacidad del proceso a corto plazo.
●La variabilidad en el transcurso del tiempo que determina la capacidad del proceso a largo plazo.

El análisis de la capacidad a través de variabilidad requiere de conocimiento o la estimación de la distribución de la característica estudiada, o bien la estimación de los parámetros que defienden dicha variabilidad. Los gráficos del control estudiados en el tema anterior proporcionan una herramienta útil para el análisis de la capacidad del proceso; en particular, como estimación de la capacidad del proceso se considera el porcentaje de variabilidad que queda dentro de los límites del control del diagrama. Por ejemplo con una herramienta básica como el histograma se puede obtener  una primera aproximación de de la característica estudiada y realizar una primera estimación del porcentaje de  la producción que verifica las especificaciones.


Índices de capacidad
En esta sección se consideran algunos índices que proporcionan una medida de la capacidad.
Para una variable aleatoria X que presenta la característica de la calidad que se pretende controlar en el producto fabricado, la variabilidad de X determina el nivel de calidad del producto. Una primera aproximación es proporcionada por los limites 6ơ que definen una situación de control del proceso. Esta medida de la variabilidad del proceso está asociada a la  consideración de un escenario Gaussiano donde el intervalo donde el intervalo µ ± 3 ơ incluye aproximadamente al 99.7 % de los valores de las características de X considerada. Los límites de dicho intervalo definen las tolerancias naturales o intrínsecas del proceso. La interpretación de dicha medida no es directa y seria de utilidad la construcción de una medida en términos relativos. Se considera los límites de especificación (LIE y LSE) que definen el rango de valores de X que han establecido como permisibles. Así mismo, el valor objetivo definido por el valor medio poblacional µ se supondrá centrado respecto a los límites de especificación. Se define entonces el índice de la capacidad estándar del proceso como:
IC=  (LSE-LIe)/6ơ
Este índice relaciona la diferencia entre los límites de especificación (establecidos) y un múltiplo de la desviación típica de la característica estudiada, que está asociado a la variabilidad del proceso y, por tanto, a las tolerancias naturales. Para IC = 1 el proceso fabrica un 0.3 % de artículos defectuosos (bajo normalidad). Si IC < 1, es proceso fabrica una proporción de defectuosos superior al 0.3 %; dicha operación aumenta según nos alejamos de la unidad. En este caso  habrá que actuar sobre el proceso para incrementar su capacidad.
Si IC > 1, el proceso fabrica una proporción de defectuosos menor al 0.3 % dicha proporción disminuye según IC se aleja de la unidad. La frecuencia de muestreo y la fracción de muestreo dependen de los valores de este índice. Para índices inferiores a la unidad se suelen inspeccionar todas las unidades. En cambio, un incremento de este índice por encima de la unidad permite disminuir la frecuencia de muestreo y, por tanto, el número de unidades que se inspeccionan.
En ocasiones el análisis de la capacidad del proceso interesa realizar un estudio sobre la variabilidad de una sola maquina (sin otros factores externos), investigando su capacidad en periodos cortos de tiempo frente a factores externos fijos. Se pueden considerar este u otros aspectos para el diseño de índices de capacidad. Así se tienen los siguientes índices:

Índice de capacidad para una maquina

ICm=  (LSE-LIE)/(8 σ)

Índice de capacidad unilateral:
ICk= min {  (LSE- µ )/3σ,(µ-LIE)/(3 σ)}

Índice de capacidad para una maquina unilateral:
ICmk=min {  (LSE-µ)/(4 σ)  ,(µ-LIE)/(4 σ)  }

Índice de capacidad inverso:
ICi=  1/IC

Índice de capacidad modificado
ICmd=  (LSE-LIE)/(6 σ)

Donde
σ=((Σ_(i=1)^n (x_i-µ)^2)/(n-1)  )^(1/2)

Índice de capacidad especial:
K=(Ẋ- µ)/(LSE-LIE/2)


Herramientas estadísticas para el análisis de capacidad

Según se ha comentado en la introducción del análisis de la capacidad requiere del conocimiento o la estimación de la distribución. Adicionalmente, según se han diseñado los límites de tolerancia naturales, la suposición de la normalidad debe contraerse para una interpretación adecuada de los índices de capacidad. Por tanto, en el análisis de la capacidad del proceso suelen utilizar las siguientes herramientas:

Histogramas
Diagramas de probabilidades
Gráficos de control
Diseño de experimentos


En una primera fase, para el análisis exploratorio de los datos, la forma del histograma nos proporciona una primera aproximación sobre el grado de la normalidad de los datos. Los diagramas de probabilidades son una alternativa a los histogramas, permitiendo obtener una primera aproximación sobre la forma, el valor central y la dispersión de la característica de la calidad estudiada. En una segunda fase, para un análisis mas preciso sobre la distribución de los datos, contraste la bondad de ajuste que proporcionan una herramienta útil.

En el tema anterior se ha estudiado el papel de los gráficos de control en los análisis de la capacidad del proceso, considerando diferentes diseños se los mismos para controlar que el proceso se mantenga en torno a un valor umbral (medio) o bien entorno a unos valores especificados, con unos niveles de variabilidad establecidos por los límites de control que definen los gráficos para las medidas de dispersión correspondientes. En relación con la aplicación de la técnica de diseño de experimentos, se tiene que la determinación de las variables (factores) de entrada que influyen en la  variable respuesta (salida o característica de la calidad estudiada) es fundamental para definir unas condiciones apropiadas que permitan, mediante selección de los niveles óptimos para cada factor, minimizar la variabilidad de la característica de la calidad estudiada, es decir, aislar fuentes de variabilidad del proceso.

La selección de un proceso óptimo de fabricación frente a diferentes alternativas se puede realizar a partir de la estimación de la capacidad o el rendimiento de los procesos involucrados en las alternativas. Sin embargo en algunos casos no se dispone de la información suficiente para obtener la estimación. Se puede aplicar entonces técnicas de simulación estadísticas que permitan establecer valores a priori de la capacidad.



Límites de tolerancia naturales


En la sección anterior se han considerado como limites la tolerancia naturales los limites µ ± 3σ. Este concepto se puede generalizar en varios sentidos; por ejemplo, se puede considerar un múltiplo arbitrario de la desviación típica poblacional, σ, o bien se puede considerar que la población no es normal. Es un sentido más amplio, los límites de tolerancia naturales de un proceso son aquellos que contienen cierta fracción 1 - σ  de la distribución de la característica de la calidad estudiada.

En el caso en que la distribución de la característica estudiada es normal (análogamente cuando es conocida) se tiene que, para µ y σ conocidos, los límites de tolerancia naturales que contienen al 100( 1- α ) % de los valores se le caracteriza estudiada son µ ± Z_(a/2^σ) . Cuando µ y σ  son desconocidos, entonces se debe calcular una estimación de los mismos. Mas correctamente, a partir de una muestra de tamaño n se calcula X   S^2.  La aproximación obtenida de los límites de tolerancia  seria X ± Za/(2^S), que habrá que corregir para asegurar que se está considerando es 100( 1- σ) de los valores de la característica estudiada.










domingo, 23 de junio de 2013

The outliers (los fuera de serie) Malcolm Gladwell



En este contexto Malcolm Gladwell diseña, haciendo una critica constructiva para acceder a los niveles mas altos y para obtener excelencia en cualquier ámbito que refleje el desempeño, nombrando que no solo es el talento el que te distingue.

Para proceder con el contexto nombrare el primer caso que es el de la liga de Hockey de Canadá donde relata que  se han estado seleccionando a los jugadores durante varias décadas de alguna forma que se logran ventajas involuntarias a los que nacieron en los primeros meses del año, lo cual demuestra el papel que juegan las normas de las instituciones para aventajar unos sobre otros.





También esta el típico caso de los Beatles al cual describe como una serie de hechos fortuitos que provoca que los mismos toquen por muchas horas en strip  tease de Hamburgo, menciona en este apartado como el azar, suerte o como quieran llamarle y todas las horas que estuvieron practicando terminan favoreciendo a la banda para que "el talento" se manifieste de la mejor manera y muy notoriamente.

Podría seguir mencionando casos de éxito o de fracaso, pero en si quiero mencionar rápidamente de que trata el libro, en pocas palabras el libro de los fueras de serie habla de encontrar las causas que generan el éxito de varios "genios". Menciona que no se trata de genética, o genialidad innata, lo resume como los factores externos que nos hacen exitoso o no. Se le llama esfuerzo.

Según el autor no es la practica constante para lograr el éxito, es la causa directa lo que lo provoca menciona Gladwell.
Dice que la receta es sencilla y ejemplifica el casa de Bill Gates, dice en pocas palabras que Bill era brillante pero que que la causa directa a que se refiere el es que tuvo la oportunidad de ir a una escuela privada con acceso a computadoras en in momento en el que muy poca gente tenia acceso a ellas, otra causa directa es que cerca de su casa de Bill se encontraba la universidad Whashington, obviamente también con acceso a equipos informáticos. En pocas palabras estas causas fueron clave, porque cuando Bill dejos los estudios universitarios en Harvard llego con 7 años de experiencia en programación lo que genero un cultivo perfecto para favorecer su talento.

Para entender mas este libro citare otro pequeño fragmento del libro, donde menciona el exito en matemáticas  de los estudiantes asiáticos en universidades norteamericanas debido a la confluencia de oportunidades (causas) académicas con mentalidad trabajadora de estas culturas.No se debe segun Gladwell a las superioridad innata sino a la disposición de hacer mayores esfuerzos.


En resumen este libro The Outliers (los fuera de serie) del autor Malcolm Gladwell encierra un mundo de expectativas englobando causas, u oportunidades, esfuerzo, cultura, y otros factores como lugar de origen, economía familiar, apoyo etc. 
Es un gran libro recomiendo ampliamente la lectura del libro ya mencionado.




BIBLIOGRAFIA 


MALCOLM GLADWELL is the author of the #i international bestsellers The Tipping Point and Blink. He is a staff writer for The New Yorker and was formerly a business and science reporter at the Washington Post. For more information about Malcolm Gladwell, visit his Web site at www.gladwell.com. 

miércoles, 19 de junio de 2013

El libro de los 5 anillos



 En este libro relativamente nos habla de como es el arte marcial, o es lo que se podría percibir a simple vista.

Este libro mas allá de ser de estrategias nos habla del control, la planificación, la estabilidad, el equilibrio, entre otras cosas mas, es decir avanzar sin dejar de observar circunstancias o variables  que afecten nuestro paso, pues el simple hecho de observar por donde caminas o hacia donde caminas te puede descifrar si debes caminar rápido, lento, o parar por un instante, así como elegir por donde caminar.

El verdadero significado es saber como actuar dependiendo de la situación, y aferrarse a lo que te interesa, sin importar como, pero ese "sin importar" bien fundamentado, es decir si pretendes conseguir un objetivo  por cualquier vía, no solo implica hacerlo y ya, es tener la visión por donde atacar primero para posteriormente darle un seguimiento para un nuevo paso.
 
El simple hecho de saber la situación te da ventaja en el campo, pero también debes contemplar  las variables, y que en teoría debes estar preparado y capacitado para lograrlo. Tu mente debe estar concentrada en el objetivo y en conjunto con el cuerpo buscar como llegar sin dejar de tomar en cuenta esos pequeños detalles  que podrían ocasionar que te desvíen de tu camino.

No hay camino perfecto, pero si puede aproximar, manteniendo un control, tener el conocimiento pero no solo quedarse con lo que ya se conoce, sino seguir aprendiendo. 

Yo entendí que debes manejar una estrategia organizada y bien  pero también flexible de manera que puedas acoplarte a la situación, tener un control y mejorarlo, tener las herramientas para llegar a dicho objetivo, y que incluso cuando encuentres el equilibrio aun puedes mejor la posición. 

sábado, 15 de junio de 2013

Herramientas de la Calidad

LLUVIA DE IDEAS



La lluvia de ideas nos sirve para generar ideas, para todos nos expresemos y demos puntos de vista diferentes sirve, y principalmente requiere de la participación espontánea de todos. Con este método se alcanzan nuevas ideas y soluciones creativas e innovadoras, rompiendo paradigmas establecidos, se recomienda elegir un lugar relajado para este método y entre todos elegir la opinión más adecuada, para tomar una decisión o resolver un problema, respetando la opinión de cada uno de sus integrantes.

LISTA DE VERIFICACIÓN 



Se usa para determinar con qué frecuencia ocurre un evento a lo largo de un período de tiempo determinado.

A pesar de que la finalidad de la Lista de verificación es el registro de datos y no su análisis, frecuentemente indica cuál es el problema que muestra esa ocurrencia.

La lista de verificación permite observar:

• Número de veces que sucede una cosa.

• Tiempo necesario para que alguna cosa suceda.

• Costo de una determinada operación, a lo largo de un cierto período de tiempo.

· Impacto de una actividad a lo largo de un período de tiempo.

¿COMO USARLA?

• Determine exactamente lo que debe ser observado.

• Defina el período durante el cual los datos serán recolectados.

• Construya un formulario simple y de fácil manejo para anotar los datos.

• Haga la recolección de datos, registrando la frecuencia de cada ítem que está siendo observado.

• Sume la frecuencia de cada ítem y regístrela en la columna Total.

DIAGRAMA DE PARETO



El Diagrama de Pareto es una representación gráfica de barras verticales de los datos obtenidos sobre un problema, que ayuda a identificar cuáles son los aspectos prioritarios que hay que tratar, separa los problemas muy importantes de los menos importantes, estableciendo un orden de prioridades.

Esta se construye a través de estas prioridades, donde se organizan los datos por orden descendente de izquierda a derecha.

Fue creado sobre la base del principio de Pareto, el 80% de los problemas son provenientes de apenas el 20% de las causas.

Este nos sirve para evaluar el comportamiento de un problema, comparando los datos entre el "antes" y el "después".

Los pasos para realizar un diagrama de Pareto son:

1. Determinar el problema o efecto a estudiar.

2. Investigar los factores o causas que provocan ese problema y como recoger los datos referentes a ellos.

3. Anotar la magnitud (por ejemplo: euros, número de defectos, etc.) de cada factor. En el caso de factores cuya magnitud es muy pequeña comparada con la de los otros factores incluirlos dentro de la categoría “Otros”.



CONTROL ESTADÍSTICO DE PROCESOS



El Control Estadístico de Procesos es un conjunto de técnicas estadísticas destinadas a hacer un seguimiento, en tiempo real, de la calidad que ofrece un proceso. El resultado de dicho proceso puede ser un artículo o un servicio. El Control Estadístico se realiza sobre una o varias variables que estén relacionadas con la calidad del artículo o servicio de interés.

El concepto y utilidad del Control Estadístico de Procesos se desarrolló inicialmente para procesos industriales, campo que constituye todavía su aplicación más frecuente.

Sin embargo, hay que destacar que, hoy en día, todas estas técnicas han demostrado ser muy útiles en cualquier proceso de una organización, incluyendo los administrativos, de fabricación o de servicios.

El Control Estadístico de Procesos, CEP, también conocido por sus siglas en inglés SPC (Statistical Process Control), es un instrumento de gestión que, comparando el funcionamiento del proceso con unos límites establecidos estadísticamente, permite implantar y garantizar los objetivos deseados bajo la filosofía de la prevención. A la vez, permite conseguir, mantener y mejorar procesos estables y capaces.

Todo esto se consigue a través de un conjunto de herramientas estadísticas que permiten recopilar, estudiar y analizar la información de procesos repetitivos para poder tomar decisiones encaminadas a la mejora de los mismos.

Se dice que un proceso esta bajo control estadístico cuando sólo se producen variaciones debidas a causas comunes. En otras palabras el objetivo y razón de ser control Estadístico de Procesos es ayudar a identificar las causas especiales que producen variaciones en el proceso y suministrar información para tomar decisiones.

El Control Estadístico de Procesos produce el efecto de:

■ Conocer la variación de los factores que integran un proceso.

■ Prevenir los defectos.

■ Reducir los costes.

■ Cumplir los requisitos.

“Un proceso es un conjunto de actividades mutuamente relacionadas que interactúan, las cuales transforman elementos de entrada en resultados”. Norma ISO 9000


ESTRATIFICACIÓN


La estratificación es una estrategia de clasificación de datos de acuerdo con variables o factores de interés, de tal forma que en una situación dada se facilite la identificación de las fuentes de la variabilidad (origen de los problemas). La estratificación busca contribuir a la solución de una situación problemática, mediante la clasificación o agrupación de los problemas de acuerdo con los diversos factores que pueden influir en los mismos, como pueden ser tipo de fallas, métodos de trabajo, maquinaria, turnos, obreros proveedores, materiales, etcétera.

La estratificación es una poderosa estrategia de búsqueda que facilita entender cómo influyen los diversos factores o variantes que intervienen en una situación problemática, de tal forma que se puedan localizar prioridades y pistas que permitan profundizar en la búsqueda de las verdaderas causas de un problema.
Recomendaciones para estratificar
1. A partir de un objetivo claro e importante determinar con discusión y análisis las características o factores a estratificar.
2. Mediante la colección de datos, evaluar la situación actual de las características (diagrama de Pareto, histograma)
3. Determinar las posibles causas de la variación en los datos obtenidos con la estratificación. Esto puede llevar a estratificar una característica más específica
4. Ir más a fondo en alguna característica y estratificarla.
5. Seguir estratificando hasta donde sea posible y obtener conclusiones de todo el proceso.


Al combinar la estratificación con el diagrama de Pareto se convierte en una herramienta indispensable para el Control de Calidad Total



Military Standard


El Military Standard (MIL STD) fue diseñado en EEUU para su utilización en la II Guerra Mundial (MIL-STD-105D; ISO 2859; UNE 66020).

Se trata del control de recepción más utilizado en la actualidad. Consiste en seguir una serie de normas (estándares) que iremos buscando en tablas.

TABLAS MILITARY STANDARD
Pasos a seguir:
             Decidir el AQL
             Determinar el nivel de inspección (I, II, III)
             Determinar el plan de inspección (varía)
             Conocido el tamaño del lote y el nivel de inspección, busco la letra de código de inspección.
             Con la letra y el plan de inspección, busco en las tablas el número de elementos defectuosos para aceptar el lote.

Niveles de inspección:
Nivel I: Coste bajo
Nivel II: Coste estándar
Nivel III: Coste alto
Nivel S-1 a S-4: ensayos destructivos
Muestreo de recepción:
Dado un lote con una proporción p de elementos defectuosos:
             Si p > pA, el lote bebe rechazarse
             Si p <= pA, el lote debe aceptarse


El problema es ahora decidir el tamaño muestral n y el número de elementos defectuosos que se está dispuesto a asumir.

BIBLIOGRAFÍA



  • http://control-estadistico-de-la-calidad.wikispaces.com/file/view/UC17_Control_estadistico_procesos.pdf
  • http://www.buenastareas.com/ensayos/Estratificaci%C3%B3n-y-Diagrama-De-Pareto/1280314.html
  • Galgano, Alberto (1995), los siete instrumentos de la calidad total



miércoles, 12 de junio de 2013

Pensadores de la Calidad, Philip B. Crosby, Kaoru Ishikawa, Joseph Juran



Philip B. Crosby (1926-2001)

Philip B. Crosby, nació en Wheeling, Virginia el 18 de Junio de 1926. 

Como encargado de calidad, creó el concepto de “Cero defectos”. 

En 1979 fundó Philip Crosby Associates, Inc. (PCA). PCA enseñó a la gerencia como establecer una cultura preventiva para realizar bien las cosas y a la primera.

Philip B. Crosby, publicó trece libros que se han convertido en best-sellers. Su primer libro fue “Quallity is free”. Él implementa la palabra de la PREVENCION como una palabra clave en la definición de la calidad total. Por lo que él dice que “hay que prevenir y no corregir”. "Calidad sin lágrimas" y "La calidad es gratis" eran fáciles de leer. Se popularizó la idea del "costo de mala calidad", es decir, calcular cuánto cuesta realmente hacer las cosas mal.

Según Crosby, la filosofía en que debe basarse un buen management de calidad puede sintetizarse en cuatro principios: 

1) La calidad consiste en satisfacer las exigencias de los clientes 

2) Prevenir es mejor que inspeccionar 

3) El objetivo a alcanzar es un estándar de "defecto cero" 

4) La calidad se mide monetariamente

Aquí se presentan los 14 pasos de Crosby, también conocidos como los 14 pasos de la administración de la calidad:
1. Compromiso en la dirección.
2. Equipos de mejoramiento de la calidad.
3. Medición de la calidad.
4. Evaluación del costo de la calidad.
5. Concientización de la calidad.
6. Equipos de acción correctiva.
7. Comités de acción.
8. Capacitación.
9. Día cero defecto.
10. Establecimiento de metas.
11. Eliminación de la causa de error. 
12. Reconocimiento.
13. Consejo de calidad.
14. Repetir el proceso de mejoramiento de calidad. 

Crosby propone 4 pilares que debe incluir un programa corporativo de la calidad, los cuales son:
1. Participación y actitud de la administración.
2. Administración profesional de la calidad.
3. Programas originales. 
4. Reconocimiento. 

Kaoru Ishikawa (1915-1989)

Kaoru Ishikawa quería cambiar la forma de pensar sobre el trabajo. Insistió a los gerentes para resistir el contenido cada vez con sólo mejorar la calidad de un producto, insistiendo en que la mejora de la calidad siempre se puede ir un paso más allá. 
Su noción de toda la empresa de control de calidad llamado de atención al cliente continuo. Propuso el diagrama de causa y efecto (también llamado el "Ishikawa" o diagrama de "espina de pez") a este líder de gestión realizado avances significativos y concretos en la calidad mejora. Con el uso de este nuevo esquema, el usuario puede ver todas las posibles causas de un resultado, y espero encontrar la raíz de las imperfecciones del proceso.

Este diagrama está compuesto por un recuadro (cabeza), una línea principal (columna vertebral), y 4 o más líneas que apuntan a la línea principal formando un ángulo aproximado de 70º (espinas principales). Estas últimas poseen a su vez dos o tres líneas inclinadas (espinas), y así sucesivamente (espinas menores), según sea necesario.




Ishikawa también mostró la importancia de las siete herramientas de calidad: gráficos de control, diagrama de comportamiento, histograma, diagrama de dispersión, gráfico de Pareto, y el diagrama de flujo. Además, Ishikawa exploró el concepto de círculos de calidad - una filosofía japonesa que sacó de la oscuridad a la aceptación en todo el mundo. . Ishikawa creía en la importancia del apoyo y el liderazgo de la gerencia de alto nivel.

Además de sus propios desarrollos, Ishikawa dibujó y expuso sobre los principios de los gurús de la calidad, incluyendo los de un hombre en particular: W. Edwards Deming, creador del modelo Planificar-Hacer-Verificar-Actuar.

 Ishikawa ampliado cuatro de Deming pasos en las siguientes seis:

• Determinar los objetivos y metas.

• Determinar los métodos de consecución de objetivos.

• Participa en la educación y la formación.

• Implementar el trabajo.

• Comprobar los efectos de la aplicación.

• Tomar las medidas adecuadas.

Círculo de Control, este fue modificado por Ishikawa que originalmente es de Deming. 





En este círculo participan los trabajadores, donde se hacen más conscientes de que hay darle mayor importancia al cliente. 

Los objetivos de estos círculos son: 

-Mejorar la calidad 

-Contribuir a desarrollar y perfeccionar la empresa 

-Desarrollo personal 

-Que el lugar de trabajo sea cómodo y rico en contenido 

-Participación de los empleados. 

Las ventajas son: 

-Estimulan la creatividad e inteligencia de las personas. 

-Mayor identificación de los empleados con la organización. 

-Impulsan la calidad de la empresa. 

-Propician una actitud participativa y cooperativa. 

-Generan integración, motivación y productividad. 

-Madurez en los empleados al realizar un análisis crítico.


Joseph Juran:


Joseph Juran nació en Rumanía el 24 de Diciembre de 1904,

Afirma que: “La calidad total es estar en forma para el uso, desde los puntos de vista estructurales, sensoriales, orientados en el tiempo, comerciales y éticos en base a parámetros de calidad de diseño, calidad de cumplimiento, de habilidad, seguridad del producto y servicio en el campo”.

Durante su vida publicó 15 libros y más de 200 artículos sobre el tema de la Calidad. Una de sus obras más renombradas fue el llamado “Manual del Control de la Calidad”, publicado en 1951. Escribió su autobiografía a la que tituló “Arquitecto de Calidad". En 1986 nos entregó su obra “Trilogía de la Calidad”. Esta trilogía define tres procesos gerenciales que toda organización requiere para mejorar: el Control de Calidad, el Mejoramiento de Calidad, y la Planificación de Calidad.

La metodología para la adopción de la calidad :

1. Fomentar a todos los niveles la necesidad de la calidad y su control.

2. Buscar los métodos de mejora dentro de la organización los métodos y aprender de ellos.

3. Establecer objetivos de calidad a todo nivel

4. Aplicar todo tipo de medidas y cambios para poder alcanzar estas metas

5. Comprometer a los trabajadores en la obtención de una mayor calidad, mediante programas de formación profesional, comunicación y aprendizaje

6. Revisar los sistemas y procesos productivos para poder mantener el nivel de calidad alcanzado.

La calidad de diseño nos asegura que el producto va a satisfacer las necesidades del usuario y que su diseño contemple el uso que le va a dar.

Los principales conceptos estipulados por Juran, para que la Planificación de la Calidad se pueda obtener siguiendo estos pasos son:

1. Identificar quiénes son los clientes

2. Determinar las necesidades de los clientes identificados

3. Traducir dichas necesidades al lenguaje de la empresa

4. Optimizar las características del producto (servicio) para satisfacer las necesidades del cliente y las de la empresa

5. Desarrollar un proceso capaz de producir el producto

6. Optimizar del proceso

7. Demostrar que el proceso puede producir el producto en condiciones operativas

8. Transferir el proceso a las fuerzas productivas

Conclusión:

Estos pensadores dejaron las bases y las herramientas para resolver problemas y darle calidad a un producto o servicio, reduciendo tiempo, aumentando la calidad, haciendo mejorar lo ya mejorado, y no tener tantas fallas, mejor dicho haciendo las cosas bien desde la primera. Abriendo todas las posibilidades para llegar a una calidad total, haciendo ver todas las posibles causas de un resultado, y resolver los problemas desde donde iniciaron, para que no siga creciendo ese defecto que ocasiona una mala calidad.




BIBLIOGRAFÍA

http://www.corporacion3d.com/corporac/index.php_option=com_content&view=article&id=74:joseph-juran&catid=15:articulos&Itemid=5

http://www.wikilearning.com/curso_gratis/teorias_de_calidad_aportaciones_de_joseph_m_juran/11500-9

http://www.biografiasyvidas.com/biografia/i/ishikawa.htm

http://www.eduteka.org/DiagramaCausaEfecto.php

http://www.wikilearning.com/curso_gratis/teorias_de_calidad-aportaciones_de_phillip_b_crosby/11500-7


martes, 11 de junio de 2013

Pensadores de la calidad: Walter A. Shewhart (Cuadros de Control) y W. Edward Deming ( 14 puntos y 7 pecados mortales)

Walter A. Shewhart (1891-1967)

Fue un físico, ingeniero y estadístico, conocido como el padre del control estadístico de calidad. Walter A. Shewhart nació en New Canton, Illinois, U.S.A.

Shewhart ponía a la calidad como un problema de variación, el cual puede ser controlado y prevenido mediante la eliminación a tiempo de las causas que lo provocan (gráficos de control). Creador de los Cuadros de Control, paso inicial hacia lo que él denominó “La formulación de una base científica para asegurar el control económico”.



Ucl: limite de control superior

Lcl: límite de control inferior


En 1924 delimitó el problema en términos de variación de causas asignables y causas ocasionales e introdujo la gráfica de control como una herramienta para distinguir entre las dos.

También dice que para llevar un proceso de producción a un estado de control estadístico, donde sólo existan variaciones de causas ocasionales, y mantenerlo en control, se requiere predecir los resultados futuros y administrarlo económicamente.

Su trabajo fue resumido en su libro Economic Control of Quality of Manufactured Product (1931).

Las gráficas de Shewhart fueron adoptadas por la American Society for Testing Materials (ASTM, Sociedad Americana para Prueba de Materiales) en 1933.

También desarrolló el Ciclo de Aprendizaje Shewhart y el ciclo de mejora, que combina tanto el pensamiento creativo de gestión con el análisis estadístico. Este ciclo consta de cuatro etapas continuas: planificar, hacer, estudiar y actuar. Estos pasos (comúnmente conocido como el ciclo PDSA), Shewhart cree, en última instancia conducir a un total de mejora de la calidad. El ciclo se basa la estructura de la idea de que la evaluación constante de las prácticas de gestión -, así como la voluntad de la administración a adoptar y el desprecio de las ideas sin apoyo - son claves para la evolución de una empresa exitosa.


BIBLIOGRAFÍA

http://www.fact-index.com/w/wa/walter_a__shewhart.html

W. Edward Deming (1900-1993)

Edward Deming nació el 14 de Octubre de 1900, en Sioux City, Iowa. A los 17 años dejo Powell para irse a Laraman a estudia ingeniería en la universidad de Wyoming , posteriormente en 195 Deming se traslada a Japón y enseñó a los administradores, ingenieros y científicos Japoneses como producir calidad. Convirtiendo a Japón líderes del mercado mundial, con los conceptos de Deming.

Los Catorce Puntos y Siete Pecados Mortales de Deming son:

Los Catorce Puntos:

1. Crear constancia en los propósitos

2. Adoptar una nueva filosofía

3. Terminar con la práctica de comprar a los más bajos precios

4. Establecer liderazgo

5. Eliminar slogans vacíos

6. Eliminar cuotas numéricas

7. Establecer entrenamiento dentro del trabajo

8. Desechar temores

9. Romper barreras entre departamentos

10. Tomar acciones para lograr la transformación

11. Mejorar constantemente y siempre el proceso de producción y servicio

12. Desistir de la dependencia en la inspección en masa

13. Remover barreras para apreciar la mano de obra

14. Reeducar vigorosamente



Los Siete Pecados Mortales

1. Carencia de constancia en los propósitos

2. Enfatizar ganancias a corto plazo y dividendos inmediatos

3. Evaluación de rendimiento, calificación de mérito o revisión anual

4. Movilidad de la administración principal

5. Manejar una compañía basado solamente en las figuras visibles

6. Costos médicos excesivos

7. Costos de garantía excesiva



BIBLIOGRAFÍA

http://alfjr7.tripod.com/EdDeming.html
http://alfjr7.tripod.com/14puntos.html

Conclusión:
Sin duda alguna fueron dos pensadores de la calidad, que en un principio hicieron en donde  pisaron a producir calidad y a ser personas con éxito y posteriormente nos dejaron estas aplicaciones a todo mundo para llevarlas a cabo. Walter A. Shewhart creo los cuadros de control para asegurar el control económico y  Deming hizo de sus principios un desarrollo de la calidad y permitió a países  posicionarse sobre países destacados por su competitividad, originada principalmente por la calidad de sus productos de exportación.











domingo, 9 de junio de 2013

5 pioneros de los Sistemas de Calidad

Introducción 

En este apartado haremos un repaso en la historia de la calidad tomando en cuenta a 5 pioneros de la misma que sirvieron de base para crear al día de hoy sistemas de calidad, y que ellos son los que se llevan el crédito por lo cual hay que guardarles el debido respeto y agradecimiento, pues gracias a ellos hoy tenemos productos de calidad. 

WILFRIDO PARETO 

Biografía 

Socialista, economista, filósofo italiano nació en Paris, el 15 de julio de 1848, y murió en Céligny, Suiza, el 20 de agosto de 1923. Hijo de italianos, marcho a Italia en 1858. Recibiéndose de ingeniero en Turín en 1869 y ejerció su profesión durante 20 años. Paladín de la doctrina libre cambista, ataco a la política proteccionista de su época. Radicado en Florencia de 1840-1895, colaboro asiduamente en el Giornale degli Economist, fortaleciendo la base matemática dada a la economía política por Cournot, Jevons y Walras. 



APORTACIONES RELEVANTES 

En el siglo XIX presento una fórmula que presentaba la desigualdad en la distribución de los salarios. 

El diagrama de Pareto es un gráfico de barras que nos permite visualizar las causas con mayor cantidad de ocurrencias. 

Fue enunciada por Pareto: 

“El 80% de los problemas que se presentan, provienen solo de un 20% de causas.” 

El diagrama de Pareto consiste en un gráfico de barras parecido al histograma que se conjuga con una ovija o curva de tipo creciente y que presenta de forma decreciente el grado de importancia o pero que tienen los diferentes factores que afectan a un proceso, operación o resultado. 

Esencialmente se utiliza para identificar y analizar un producto o servicio para mejorar la calidad, analizar las diferentes agrupaciones de datos, por ejemplo: por producto, por segmento del mercado, área geográfica etc. 

Al buscar las principales causas de los problemas y establecer la prioridad de las soluciones. 

Evaluar los resultados de los cambios efectuados a un proceso (antes y después). 





Taylor Frederick W. (1856-1917) 

Biografía 

Ingeniero como resultado de su entrenamiento. Comenzó trabajando como un obrero y llegó a ser Ingeniero en Jefe de la empresa Midvale Steel Works. Posteriormente trabajó en Bethlehem Steel Works, ejerció luego la profesión de consultor y dedicó mucho de su tiempo a difundir sus ideas en relación con la eficiencia organizacional. 

Sus apreciaciones fueron expuestas en un libro (Shop Management, 1903) y más adelante ampliadas en “Los principios de la administración científica” (1911). Como consecuencia de problemas laborales originados por el intento de aplicar sus principios en un arsenal del gobierno se estableció una comisión gubernamental para investigar el sistema propuesto por Taylor. 



Aportaciones 

Fundador del movimiento conocido como “administración científica”. Según Taylor, el principal objeto de la gerencia es asegurar la máxima prosperidad al empleador, juntamente con la máxima prosperidad para el empleado. Al referirse a máxima prosperidad para el empleador esto no se refiere únicamente al corto plazo, sino al desarrollo de todos los aspectos necesarios que aseguren un estado de permanente prosperidad. A su vez máxima prosperidad para los empleados no significa salarios inmediatos más altos, sino más bien desarrollo personal de modo que puedan trabajar más eficientemente teniendo en cuenta sus naturales habilidades. 

Frederick Taylor ha tenido múltiples seguidores como por ejemplo Gantt y los hermanos Gilbreth, entre otros. Las ideas y prácticas de Frederick Taylor han sido criticadas muy duramente por otros estudiosos de organizaciones, como así también por investigadores y practitioners sobre la base de promover un sistema inhumano o anti-humano, ya que finalmente, a través de distintos aumentos de productividad, finalmente de todas maneras termina comparando su producción con la de una máquina o la de un robot. 



La interdependencia mutua entre la gerencia y los trabajadores, y la necesidad de que trabajen conjuntamente hacia el común objetivo de mayor prosperidad para todos ellos, era algo más que evidente para Taylor. Por ello, una de las preguntas que acudía constantemente a su mente era: ¿ Porqué es que existe entonces tanto antagonismo e ineficiencia? 

Taylor sugiere que esto se debe a tres razones principales: 

1.-La creencia (que en realidad es una falacia) de los trabajadores sustentada en que cualquier aumento de la productividad ocasionaría desempleo; 

2.-sistemas defectivos gerenciales que hacen necesario que los trabajadores restrinjan su producción con el propósito de proteger sus intereses; 

3.-Ineficientes métodos de trabajo basados en el “más o menos”. 

Y es por eso que Taylor dedica sus energías y esfuerzos a superar estos obstáculos a través de la administración científica. La combinación óptima entre los intereses del personal y de sus empleadores es muy bien sintetizada por Taylor en su clásica frase: “Lo que los trabajadores quieren de sus empleadores por encima de todo son sueldos altos y lo que los empleadores quieren de sus trabajadores por sobre todo es un bajo costo de manufactura... la existencia o ausencia de estos dos elementos conforman el mejor índice de buen o mal gerenciamiento.” 



Una de las preguntas que se formula Frederick Taylor tiene que ver con como es posible que, quienes tienen muchos de sus intereses en común como es el caso de todos los participantes organizacionales, ya que todos los que pertenecen a una organización independientemente del rango o de la posición que ocupan no han heredado lo suficiente como para no tener que trabajar, exista al mismo tiempo tanto conflicto y hasta antagonismo que impacta negativamente sobre la productividad, que al fin de cuentas lastima a “todos”. 



En una presentación magistral ante practitioners, profesionales y empresarios Frederick Taylor, con su enorme talento en el mundo inductivo, hizo aseveraciones aparentemente sencillas que tienen un gran impacto en los resultados. Y es lamentable que estas implicancias no hayan sido debidamente tenidas en cuenta en el día de hoy ya que muchas de ellas son de enorme aplicación y pueden ofrecer beneficios directos no solamente para los miembros de las distintas jerarquías dentro de la organización sino también para sus Clientes. Basándose en un ejemplo muy sencillo – típico del método inductivo – mostró como sistemáticamente y a través del tiempo en un estudio longitudinal desarrollado y liderado por él mismo, una simple tarea como es la de “apalear” produce distintas consecuencias como resultado de la acción de distintas personas y distintas palas. A partir de ese tan sencillo experimento – como ha sucedido también en muchos notables inventos de la humanidad – concluye que definitivamente hay una mejor manera de hacer las cosas, y lo prueba a través de distintos experimentos de campo que muestran evidencia de la existencia de una nueva disciplina a la que Taylor denomina Administración Científica. Para Frederick Taylor una ciencia no es otra cosa que el producto de una medición y observación realizada en forma sistemática, preferentemente a través del tiempo. Taylor hace hincapié en algo que dentro de la cultura latinoamericana nos parece poco importante por decir lo menos; él sugiere que palear puede llegar a ser un trabajo muy sencillo, pero el estudio y análisis sistemático de los factores que influyen sobre la mejor forma de palear es sumamente compleja. Por lo tanto no es sencillo determinar la forma óptima de palear de un trabajador de “primera clase”. Se debe tener en cuenta el tamaño ideal de cada pala, los diferentes materiales e incluso decirle a cada trabajador qué pala debe llegar a usar y bajo qué circunstancias. Haciendo esto, y siguiendo a Taylor, los trabajadores han de estar en condiciones de trabajar bajo un sistema de incentivos donde su paga puede llegar a ser el doble de lo que ganaría en una empresa donde no se hace uso de los principios de Administración Científica, como consecuencia de niveles más altos de productividad. 



Frederick Taylor enumera lo que el mismo denomina cuatro principios básicos de la actividad gerencial (management): 



1.-La necesidad de desarrollar una verdadera ciencia de las tareas, actividades y funciones. Para Taylor uno de los problemas que emergen y que influyen negativamente sobre la productividad y la marcha organizacional tiene que ver con que aquellos que gerencian no saben ni tampoco pueden llegar a determinar lo que es “una justa y equitativa jornada de trabajo”. Esto tiene como consecuencia que el trabajador no sabe que es lo que se espera de él por un lado y también tiene otro componente que afecta el arreglo organizacional y en especial la continuidad efectiva de la relación entre superior y el subordinado, ya que el gerente tiene “posibilidades ilimitadas para quejarse, castigar y reprimir las acciones de los subordinados. Este tema ha sido tratado en el tiempo, relacionado con la carrera de las personas dentro de las empresas, por el Dr. Donald Cole en un trabajo monumental. Más tarde para estudiar las implicancias de esto en Latinoamérica, y sobre la base del trabajo original del Dr. Donald Cole, esta problemática se trata en detalle en el libro del Dr. Donald Cole con Eric Gaynor Butterfield titulado: Suicidio Profesional o Asesinato Organizacional. 

2.-La importancia del proceso de reclutamiento y selección de personal y posterior desarrollo de carrera de los mismos. Taylor pone especial énfasis en seleccionar solamente a aquéllas personas que reúnan los requisitos físicos e intelectuales necesarios para hacer el trabajo bajo niveles de producción óptimos. Y esto debe hacerse antes de que ingrese a la empresa. Tenemos múltiples ejemplos de cómo herramientas psico-técnicas “modernas” en muchos casos no tienen en cuenta esta simpleza a que hace referencia Taylor, pero que es de una enorme contundencia en cuanto a su impacto en la productividad y eficiencia organizacional. Ahora bien, una vez que el empleado ingresa a la empresa, de allí en adelante es el superior el que debe entrenar al subordinado en una forma diaria y sistemática hasta convertirlo en un trabajador de “primera clase”. El superior tiene ésta responsabilidad de desarrollar a sus subordinados ofreciendo oportunidades de crecimiento dentro de la empresa con el propósito de que el trabajador “pueda hacer el trabajo al nivel más alto y también más rentable”, lo cual los calificaría como personas de “primera clase”. 

3.-La complementariedad entre el punto 1 con el punto 2 anterior. Esto permite alcanzar según Frederick Taylor una revolución mental y hace hincapié en un hecho que no es usualmente tenido en cuenta pero que él ha advertido en los inicios de las grandes empresas: la mayor resistencia a la aplicación de los principios de la administración científica usualmente no proviene de los trabajadores. Es la gerencia la que muchas veces se resiste a tener en cuenta la ciencia de la forma de trabajar; al final de cuentas es más cómodo sentarse y no establecer standards de producción para los demás ya que en caso de que su unidad o departamento a su vez tampoco lo satisfaga, siempre tiene un motivo, una explicación y una persona que es “la causa del problema y de la ineficiencia”. Taylor ha observado que por lo general, cuando las personas pueden ganar más dinero, por lo general quieren aprender nuevas formas de aprender qué hacer para ser más productivos. 

4.-Es absolutamente indispensable que la gerencia desarrolle mecanismos que fortalezcan la cooperación de ellos mismos con los subordinados. El trabajo del gerente tiene que ver con la administración científica lo que implica la necesidad de estudiar los tiempos de producción, materiales a ser usados, el costo de los mismos, el equipamiento necesario, un detalle de los procedimientos y prácticas a ser realizadas por el subordinado, como así también los estándares de calidad. Una vez determinados esto se debe transmitirse toda la información necesaria a los subordinados para el cumplimiento de las tareas y esto debe hacerse a través de una supervisión directa e íntima. Es imposible ponerlo en términos más claros y simples que lo que lo hace Taylor: toda acción a ser desarrollada por un subordinado debe seguir indefectiblemente algo que ha hecho antes el superior (es claro que debe planear pero Frederick Taylor era un pragmático de primer orden y por eso pone énfasis en algo que ha hecho antes el superior; esto lo haría a Taylor un precursor más allá del Coaching, pues trabaja sobre el modelaje). Como resultado de esta relación íntima, una estrecha e íntima supervisión, la notoriedad para los subordinados del uso de una administración científica de parte del superior, se obtiene mayor cumplimiento disciplinario y se reduce el conflicto natural de ambientes no-científicos en la empresa. 


Finalmente no queremos dejar de mencionar dos muy importantes contribuciones de Frederick Taylor. La primera de ellas tiene que ver con la aplicación de un principio que él ha intentado llevar a la práctica empresarial y que nosotros lo hemos denominado de ésta manera: “No hay nada más injusto que tratar de igual manera (o pagarles similares salarios) a personas distintas con producciones distintas.” Su obsesión por diferenciar a personas en cuanto a su nivel de productividad no ha sido superada hasta el día de hoy, unos 90 años más tarde. 

Y otro punto significativo que tiene que ver con el impacto de la organización sobre el desarrollo económico de las comunidades y de los países tiene que ver con que el pensamiento de Taylor está muy presente y en línea con el extraordinario trabajo de un notable economista: Joseph Schumpeter. Muchos trabajos de campo y de investigación desarrollados por The Organization Development Institute International, Latinamerica muestran evidencia donde la inexistencia de la aplicación del pensamiento y acción de Taylor y Schumpeter son causales en gran medida de los niveles insatisfactorios tanto cuantitativos como cualitativos en los distintos países latinoamericanos. 




Henry Fayol (1841- 2925) 

Biografía 

Nació en Constantinopla y falleció en Paris, se graduo a los 19 años como ingeniero en mina, vivio la consecuencia de la revolución industrial y la primera guerra mundial, a lo s25 años fue nombrado gerente de las minas de acero y carbón, a los 47 años ocupo la gerencia general de la Compagine Commantry Forchambault et Decazeville, pionero de la administración conocido por sus aportaciones en el pensamiento administrativo. 

Aportaciones 

Funciones técnicas, funciones comerciales, funciones financieras, funciones de seguridad, funciones contables, funciones administrativas. 

En estas funciones Fayol nos define el acto de como administra, planear, organizar, dirigir, coordinar y controlar. 

Entre sus aportaciones nos encontramos con los 14 principios de Fayol: 



1.- División del trabajo 

2.- Autoridad 

3.- Disciplina 

4.- Unidad de dirección 

5.- Unidad de mando 

6.- Subordinación de interés individua al bien común 

7.- Remuneración 

8.- Centralización 

9.- Jerarquía 

10.- Orden 

11.- Equidad 

12.- Estabilidad Personal 

13.- Iniciativa 

14.- Espíritu de equipo 



Otros aportes 

Cualidades de un administrador: 

Cualidades físicas: salud, vigor, destreza 

Cualidades intelectuales: aptitud para comprender y aprender, juicio, vigor y agilidad intelectual. 

Cualidades morales: energía, firmeza, valor para aceptar las responsabilidades, iniciativa, abnegación, tacto, dignidad. 

Cultura genera: nociones diversas que no son exclusivamente del dominio de la función desempeñada. 

Conocimientos especiales: conciernen a la función. 

Experiencia: conocimiento resultante de la práctica de negocios. Es el recuerdo de las lecciones que uno mismo ha extraído de los hechos. 





Henry Lawrence Gantt 

Biografía 

Nació en 1861 en Condado de Calvert, Maryland, Estados Unidos. 

Ingeniero industrial mecánico. Se le define como un humanista, pues aún siendo discípulo de Taylor, sentía especial simpatía por los poco privilegiados. Prestó más atención en crear un ambiente que le permitiera obtener mayor cooperación de sus trabajadores, al fijarles una tarea bien definida. 

Administración Científica: Los creadores de esta escuela son Frederick Wilow Taylor y los Esposos Gibreth y Henry Gantt, quienes a principios de ese siglo en Estados Unidos determinaron las bases de la Administración Científica, llamada así por la racionalización que hace de los dos métodos de ingeniería aplicados a la administración y debido a que desarrollan investigaciones experimentales orientadas hacia el rendimiento del obrero. Gantt en un esfuerzo por motivar a las personas a alcanzar niveles más elevados de producción, desarrolló un sistema en el que los trabajadores podían ganar un premio además de la tarifa por pieza sí rebasaban su cuota de producción por día. Gantt creía firmemente que la compensación del obrero necesitaba corresponder no sólo a la producción mediante el sistema de tarifa por pieza, sino también a la sobreproducción mediante el sistema de premios. Sus dos conceptos básicos fueron: el humanismo y la bonificación por tarea: basado en un sistema de tasas diferenciales por pieza inventado por Taylor, pero lo más diferente posible del antiguo sistema de fijar tasas por pieza de los registros del tiempo total que tomó hacer el trabajo total. En lugar de eso, el tiempo permitido para el trabajo está basado en condiciones estándar del taller y una ejecución de primera clase. Si un empleado terminaba su tarea fijada para el día, recibía una bonificación adicional, si no lo cumplía recibía solo su paga normal y no era castigado. Taylor no garantizaba un salario mínimo para una ejecución inferior al estándar. Introduciendo el sistema Gantt, la producción se incrementó a más del doble. Gantt establece que el elemento humano es el más importante de todos los problemas administrativos. 



Aportaciones 

Otras aportaciones son: La Gráfica de Balance Diario. Actual Gráfica de Gantt. Mide la producción en uno de sus ejes y las unidades de tiempo en el otro, y el establecimiento de que los incentivos financieros son sólo uno de los muchos que influyen en el comportamiento de los empleados. 



Resumen de su contribución: 

*Gráfica de Gantt, primera herramienta de programación que desarrolló, proporciona a los administradores un resumen fácilmente comprensible del trabajo que ha sido programado para periodos específicos, el avance de este trabajo y quien los ha realizado 

*Enfoque humanista 

*Política para instruir al obrero en lugar de sólo forzarlo 

*Énfasis en el servicio y no en las utilidades. El servicio como fin último 

*Introducción del concepto de Responsabilidad Industrial. 

Colaboró 14 años con Taylor, tomando lo más sobresaliente de él, continuó con sus estudios. Autor de: "Adiestramiento a los obreros". 


Johann Carl Friedrich Gauss (1777-1855) 



Biografía 

El más grande matemático del siglo XIX, Johann Carl Friedrich Gauss se considera uno de los tres matemáticos más importante de todos los tiempos, siendo Arquímedes y Newton los otros dos. 

Gauss nació en Brunswick, Alemania, en 1777. Su padre, un obrero amante del trabajo, era excepcionalmente obstinado y no creía en la educación formal, hizo todo lo que pudo para evitar que Gauss fuera a una buena escuela. Por fortuna para Carl (y para las matemáticas), su madre a pesar de que tampoco contaba con educación, apoyó a su hijo en sus estudios y se mostró siempre orgullosa de sus logros hasta el día de su muerte a los 97 años. 

Gauss era un niño prodigio. A los 3 años encontró un error en la libreta de cuentas de su padre. Una anécdota famosa habla de Carl, de 10 años de edad, como estudiante de la escuela local de Brunswick. El profesor solía asignar tareas par mantener ocupados a los alumnos. Un día les pidió que sumaran los números del 1 al 100. Casi al instante, Carl colocó su pizarra cara abajo con las palabras “ya está”. Después, el profesor descubrió que Gauss era el único con la respuesta correcta, 5 050. Gauss había observado que los números se podían arreglar en 50 pares que sumaban cada uno 101 (1+100, 2+99, etc.), y 50 x 101 = 5 050. Años después, Gauss bromeaba diciendo que podía sumar más rápido de lo que podía hablar. 

Cuando Gauss tenía 15 años, el Duque de Brunswick se fijó en él y lo convirtió en su protegido. El Duque lo ayudó a ingresar en el Brunswick College en 1795 y, tres años después, a entrar a la universidad de Gottingen. Indeciso entre las carreras de matemáticas y filosofía, Gauss eligió la de matemáticas después de dos descubrimientos asombrosos. Primero inventó el método de mínimos cuadrados una década antes de que Legendre publicara sus resultados. Segundo, un mes antes de cumplir 19 años, resolvió un problema cuya solución se había buscado durante más de dos mil años: Gauss demostró cómo construir, con sólo regla y compás, un polígono regular cuyo número de lados no es múltiplo de 2, 3 o 5. El 30 de marzo de 1796, el día de este descubrimiento, comenzó un diario que contenía como primera nota las reglas de construcción de un polígono regular de 17 lados. El diario, que contiene los enunciados de 146 resultados en solo 19 páginas, es uno de los documentos más importantes en la historia de las matemáticas. 

Después de un corto periodo en Gottingen, Gauss fue a la University of Helmstadt y, en 1798, a los 20 años, escribió su famosa disertación doctoral. En ella dio la primera demostración matemática rigurosa del teorema fundamental del álgebra -que todo polinomio de grado n tiene, contando multiplicidad, exactamente n raíces. Muchos matemáticos incluyendo a Euler, Newton y Lagrange, habían intentado probar ese resultado. 

Gauss hizo un gran número de descubrimientos en física al igual que en matemáticas. Por ejemplo, en 1801 utilizó un nuevo procedimiento para calcular, a partir de unos cuantos datos, la órbita del planetoide Ceres. En 1833 inventó el telégrafo electromagnético junto con su colega Wilhelm Weber (1804-1891). Aunque realizó trabajos brillantes en astronomía y electricidad, fue la producción matemática de Gauss la que resultó asombrosa. 

Hizo contribuciones fundamentales al álgebra y la geometría. En 1811 descubrió un resultado que llevó a Cauchy a desarrollar la teoría de variable compleja. En álgebra lineal podemos encontrar el método de eliminación de Gauss-Jordan. Los estudiantes de análisis numérico aprenden la cuadratura gaussiana - una técnica de integración numérica. 

Gauss fue nombrado catedrático de matemáticas en Gottingen en 1807 e impartió clases hasta su muerte en 1855. Aún después de fallecer, su espíritu matemático siguió acosando a los matemáticos del siglo XIX. Con frecuencia, un importante resultado nuevo ya había sido descubierto por Gauss y se podía encontrar en sus notas inéditas. 

En sus escritos matemáticos Gauss era un perfeccionista y tal vez sea el último matemático que sabía todo sobre su área. Afirmando que una catedral no lo era hasta que se quitaba el último de los andamios, ponía todo su empeño para que cada uno de sus trabajos publicados fuera completo, conciso y elegante. Usaba un sello en el que se veía un árbol con unas cuantas frutas y la leyenda paula sed matara (pocas pero maduras). Gauss creía también que las matemáticas deben reflejar el mundo real. A su muerte, Gauss fue honrado con una medalla conmemorativa con la inscripción “George V, Rey de Hanover, al príncipe de los matemáticos” 



Aportaciones 

Entre sus principales aportaciones nos encontramos a “la campana da Gauss”. 

En probabilidad y estadística se llama distribución normal, distribución de Gauss o distribución Gaussiana, a la distribución de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales. 

La grafica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. 

Esta curva se conoce como campana de Gauss. 

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo normal son: 

- caracteres morfológicos de individuos como la estatura; 

- caracteres fisiológicos como el efecto de un fármaco; 

- caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos; 

- caracteres psicológicos como el cociente intelectual; 

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal, incluso si la distribución de la población de la cual se extrae la muestra no es normal. 



Conclusión: 

Se les atribuye esencialmente por ser la base a la introducción a los sistemas de calidad, con sus diferentes aportaciones y la perspectiva que tenían acerca de las cargas de trabajo, tomando en cuenta al empleado y todo aquello que intervenía durante el proceso, sirviendo como influencia para la creación de estándares de calidad. 

Su forma de ver las relaciones de trabajo, así como la proporción del mismo, sin dejar a un lado la superación del individuo y las características que estos deben de cumplir para llevar a cabo una meta satisfactoriamente. 







Bibliografía: 






G. H. Bousquet, compendio de sociología, según Vilfredo Pareto trad. 

C.A. Echánove, T (1940, Botas México); Id, introducción aux systemes 

Socialistes de V. Pareto (Giard. Paris); Id., V. Pareto. Sa vie et son oeuvre 

(reviere Paris);Pareto ; Traite de Sociologie generate (Payot Paris)