Glosario KW | KW Glossary


Ontology Design | Diseño de Ontologías

Browse the glossary using this index

Special | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | ALL

Page: (Previous)   1  2
  ALL

I

Picture of System Administrator

Internet de las cosas (IoT)

by System Administrator - Thursday, 5 January 2017, 6:25 PM
 

Internet de las cosas (IoT)

Publicado por: Margaret Rouse

La internet de las cosas (IoT, por sus siglas en inglés) es un sistema de dispositivos de computación interrelacionados, máquinas mecánicas y digitales, objetos, animales o personas que tienen identificadores únicos y la capacidad de transferir datos a través de una red, sin requerir de interacciones humano a humano o humano a computadora.

Una cosa, en la internet de las cosas, puede ser una persona con un implante de monitor de corazón, un animal de granja con un transpondedor de biochip, un automóvil que tiene sensores incorporados para alertar al conductor cuando la presión de los neumáticos es baja, o cualquier otro objeto natural o artificial al que se puede asignar una dirección IP y darle la capacidad de transferir datos a través de una red.

IoT ha evolucionado desde la convergencia de tecnologías inalámbricas, sistemas micro-electromecánicos (MEMS), microservicios e internet. La convergencia ha ayudado a derribar las paredes de silos entre la tecnología operativa (OT) y la tecnología de la información (TI), permitiendo que los datos no estructurados generados por máquinas sean analizados para obtener información que impulse mejoras.

Kevin Ashton, cofundador y director ejecutivo del Auto-ID Center de MIT, mencionó por primera vez la internet de las cosas en una presentación que hizo a Procter & Gamble en 1999. He aquí cómo Ashton explica el potencial de la internet de las cosas:

"Las computadoras de hoy –y, por lo tanto, la internet– dependen casi totalmente de los seres humanos para obtener información. Casi todos los aproximadamente 50 petabytes (un petabyte son 1.024 terabytes) de datos disponibles en internet fueron capturados y creados por seres humanos escribiendo, presionando un botón de grabación, tomando una imagen digital o escaneando un código de barras. 

El problema es que la gente tiene tiempo, atención y precisión limitados, lo que significa que no son muy buenos para capturar datos sobre cosas en el mundo real. Si tuviéramos computadoras que supieran todo lo que hay que saber acerca de las cosas –utilizando datos que recopilaron sin ninguna ayuda de nosotros– podríamos rastrear y contar todo, y reducir en gran medida los desechos, las pérdidas y el costo. Sabríamos cuándo necesitamos reemplazar, reparar o recordar cosas, y si eran frescas o ya pasadas”.

El enorme aumento de IPv6 en el espacio de direcciones es un factor importante en el desarrollo de la internet de las cosas. Según Steve Leibson, quien se identifica como "docente ocasional en el Museo de Historia de la Computación", la expansión del espacio de direcciones significa que podríamos "asignar una dirección IPV6 a cada átomo en la superficie de la Tierra, y aún tener suficientes direcciones para hacer otras más de cien Tierras". En otras palabras, los seres humanos fácilmente podría asignar una dirección IP a cada"cosa" en el planeta. Se espera que un aumento en el número de nodos inteligentes, así como la cantidad de datos ascendentes generados por los nodos, genere nuevas preocupaciones sobre la privacidad de los datos, la soberanía de los datos y la seguridad.

Las aplicaciones prácticas de la tecnología IoT se pueden encontrar en muchas industrias actualmente, incluyendo la agricultura de precisión, gestión de edificios, salud, energía y transporte. Hay numerosas opciones de conectividad para los ingenieros electrónicos y los desarrolladores de aplicaciones que trabajan en productos y sistemas para internet de las cosas.

Aunque el concepto no fue nombrado hasta 1999, la internet de las cosas ha estado en desarrollo durante décadas. El primer aparato de internet, por ejemplo, fue una máquina de Coca Cola en la Universidad Carnegie Melon, a principios de 1980. Los programadores podían conectarse a la máquina a través de internet, verificar el estado de la máquina y determinar si había o no una bebida fría esperándoles, si decidieran hacer el viaje a la máquina.

El Dr. John Barrett explica la internet de las cosas en su charla de TED:

Términos relacionados

Link: http://searchdatacenter.techtarget.com

Picture of System Administrator

Internet of Things

by System Administrator - Tuesday, 30 April 2013, 2:47 PM
 

Part of the Cloud computing glossary.

The Internet of Things (IoT) is a scenario in which every thing has a unique identifier and the ability to communicate over the Internet or a similar wide-area network (WAN).

The technologies for an Internet of Things are already in place. Things, in this context, can be people, animals, servers, applications, shampoo bottles, cars, steering wheels, coffee machines, park benches or just about any other random item that comes to mind. Once something has a unique identifier, it can be tagged, assigned a uniform resource identifier (URI) and monitored over a network. The Internet of Things is an evolutionary outcome of the trend towards ubiquitous computing, a scenario in which processors are embedded in everyday objects.

Although the concept wasn't named until 1999, the Internet of Things has been in development for decades. The first Internet appliance was a Coke machine at Carnegie Melon University in the early 1980s. Programmers working several floors above the vending machine wrote a server program that tracked how long it had been since a storage column in the machine had been empty. The programmers could connect to the machine over the Internet, check the status of the machine and determine whether or not there would be a cold drink awaiting them, should they decide to make the trip down to the machine.

Kevin Ashton, cofounder and executive director of the Auto-ID Center at MIT, first mentioned the Internet of Things in a presentation he made to Procter & Gamble. Here’s how Ashton explains the potential of the Internet of Things:

“Today computers—and, therefore, the Internet—are almost wholly dependent on human beings for information. Nearly all of the roughly 50 petabytes (a petabyte is 1,024terabytes) of data available on the Internet were first captured and created by human beings—by typing, pressing a record button, taking a digital picture or scanning a bar code… The problem is, people have limited time, attention and accuracy—all of which means they are not very good at capturing data about things in the real world… If we had computers that knew everything there was to know about things—using data they gathered without any help from us—we would be able to track and count everything, and greatly reduce waste, loss and cost. We would know when things needed replacing, repairing or recalling, and whether they were fresh or past their best.”

IPv6’s huge increase in address space is another factor in the development of the Internet of Things. According to Steve Leibson, who identifies himself as “occasional docent at the Computer History Museum,” the address space expansion means that we could “assign an IPV6 address to every atom on the surface of the earth, and still have enough addresses left to do another 100+ earths.” In other words, we could easily assign an IP address to every thing that we wanted to monitor.

See also: cloud-oriented architecture (COA), resource-oriented architecture (ROA)

Contributor(s): Ivy Wigmore / Posted by: Margaret Rouse

Source: http://whatis.techtarget.com/definition/Internet-of-Things

Picture of System Administrator

Interoperabilidad / Interoperability (KW)

by System Administrator - Thursday, 2 May 2013, 6:48 PM
 

Un Sistema de Información es interoperable o no lo es.

Interoperabilidad

 

Los Seguros de Salud exigen a sus Proveedores contenidos y mensajes estandarizados como condición mínima para el cobro de las prestaciones.

El primer paso para cumplir con estas exigencias es la utilización de códigos comunes (en general contenidos en el cabezal de los documentos y mensajes que se intercambian). HealthDesk© recomienda, antes de comenzar con el ingreso de parámetros, cumplir con este requisito.

Es imposible abordar la horizontalidad de un sistema de información para la gestión de la producción sanitaria sin mantener el máximo nivel de abstracción posible. Esto significa marcar una frontera clara entre los contenidos estándar (o sugeridos por HealthDesk©) y los contenidos relacionados con las reglas de negocio del Usuario Final[1].

La experiencia de los primeros 90 días de implantación de un sistema como éste puede ser percibida como un verdadero caos o como una evolución natural sin sobresaltos. La clave está en lo que mencionábamos en una de las figuras: el “Plan Estratégico (Propósito-Misión-Visión)”. Si este Plan surge de un análisis profesional y anticipado al proceso de implantación, producto de un liderazgo conceptual bien claro y una estrategia comunicacional sin exclusiones, los resultados positivos serán visibles en un cortísimo plazo.

Ud. habrá notado la frecuencia con la que utilizamos la palabras “estándar” e “interoperabilidad”, pero todavía no las hemos definido formalmente.

“Originalmente en inglés, estándar significaba bandera; color; pancarta; de allí el nombre estándar(te). El significado primario moderno que le siguió fue "lo que es establecido por la autoridad, la costumbre o el consentimiento general". En este sentido se utiliza como sinónimo de norma: serie de reglas y definiciones que especifican como llevar a cabo un proceso o producir un producto.

La interoperabilidad física es la habilidad de dos o más sistemas o componentes para intercambiar información. En los sistemas de información en salud, el primer paso para que un sistema sea interoperable es su capacidad de transferir información de un paciente de un sistema a otro. En general, esta transferencia se realiza a través de una interfaz adaptada y personalizada.

El Diccionario de la Real Academia de la Lengua Española define interfaz como una palabra derivada del término inglés “interface” (superficie de contacto) y la define de la siguiente manera: 1. f. Inform. Conexión física y funcional entre dos aparatos o sistemas independientes.

Podríamos decir que la interoperabilidad física se refiere a la estructura de una comunicación, lograr que los sistemas se comuniquen físicamente. La interoperabilidad semántica contiene el significado de la comunicación, sería el equivalente a un diccionario. Para ello la solución recomendada es utilizar estándares de es terminologías como SNOMED, LOINC o documentos clínicos estándares como el Clínical Document Architecture (CDA). Sin la interoperabilidad semántica, los datos pueden ser intercambiados pero no hay seguridad de que puedan ser utilizados por el que los recibe. Muchos de los estándares disponibles hoy en día, cumplen con ambos tipos de interoperabilidad  (física y semántica).

Interoperabilidad del negocio: Alcanzar 100% de interoperabilidad requerirá una comprensión de las prioridades y la persistencia de los datos entre varios y variados escenarios (internación, ambulatorio, rehabilitación, internación domiciliaria, internación psiquiátrica, emergencias, farmacias, cuidados odontológicos, etc). Esto necesitará información de todas las partes para entender todas las reglas de negocio de los distintos actores que participan en la comunicación.

Con verdadera interoperabilidad, es decir, aquella que cumpla con estos 3 requisitos (interoperabilidad física, semántica y de negocio), los datos podrán ser intercambiados o integrados dentro de una institución, entre diferentes instituciones de salud, compartidos con los pacientes y utilizados para sistemas de vigilancia a nivel nacional como los que veremos en una de las última unidades del curso.

… la interoperabilidad requiere de estándares por múltiples partes, para intercambiar datos y además hablar el mismo idioma a través de diccionarios o terminologías médicas que permitan hacer uso de los datos intercambiados.”

Las “reglas de negocio” del Usuario Final no tienen porqué ser transmitidas, sí el resultado de las mismas (por ejemplo: NO AUTORIZADO).

“Hoy en día existen estándares que se ocupan de ambos tipos de interoperabilidad, a modo práctico, los organizaremos en 6 categorías, para después explicarlos en detalle:

  • Intercambio de datos y mensajería: permiten que las transacciones para el intercambio de datos fluyan de manera consistente entre los sistemas u organizaciones porque contienen las especificaciones o instrucciones necesarias para la estructura, formato y elementos del dato. Entre los más comunes se encuentran HL7 para datos como información demográfica del paciente o consultas y DICOM para imágenes. 
  • Terminología: proveen codificación específica para conceptos clínicos como: patologías, lista de problemas, alergias, diagnósticos y medicamentos que pueden tener variantes de texto en los registros en papel. A modo de ejemplo tenemos SNOMED para términos clínicos, LOINC para resultados de laboratorio y CIE para enfermedades y causas de muerte. 
  • Documentos: indican el tipo de información que debe ser incluido en un documento y donde puede encontrarse. Un estándar reconocido en los registros clínicos en papel es el formato SOEP (Subjetivo-Objetivo-Evaluación-Plan). El CCR (Continuity of Care Record) es un estándar para la comunicación para información de las patologías del paciente, medicaciones, antecedentes y plan de cuidado recomendado para ser compartido entre profesionales del equipo de salud.
  • Conceptual: permiten el transporte de datos a través de los sistemas sin que estos pierdan sentido y contexto. El HL7 RIM (Reference Information Model) provee el marco conceptual para la descripción de datos clínicos y el contexto que lo rodea explicando el “quien, que, cuando, donde y como”. 
  • Aplicaciones: determinan la forma por la cual las reglas del negocio se implementan y las aplicaciones pueden interactuar. Esto incluye el log-in único para diversas aplicaciones dentro del mismo entorno y estándares para brindar una vista comprensiva de datos a través de múltiples bases de datos no integradas.
  • Arquitectura: definen el proceso involucrado en el almacenamiento y distribución de los datos …”

Alineación (“Luz”), Conexión (“Cámara”), Interoperabilidad (“Acción”): Así se llama el trabajo científico que TNG presentó en el “III Congreso Iberoamericano de Informática Médica Normalizada” de 2008 en Uruguay, organizado por SUEIIDISS (www.sueiidiss.org). Este trabajo resalta, como primer paso IMPRESCINDIBLE rumbo a la interoperabilidad, la alineación de las tablas con los identificadores que serán utilizados en los mensajes. En otras palabras, Ud. debe utilizar los mismos códigos para identificar los mismos objetos (tipos de mensaje, tipos de documentos y atributos de personas, financiadores, prestadores o efectores de salud, prestaciones, recursos humanos, capas de la HCE, estructura hospitalaria, etc). En muchos casos estos identificadores son OIDs (Objects Identifiers), y los deberá buscar en la Autoridad de Asignación respectiva (organizaciones ISO o el propio Estado). En el caso de Uruguay remitirse a SUEIIDISS.

HL7 es un estándar privado, y para publicitar que su sistema de gestión y/o mensajería es “HL7 compatible” debe certificarse en un representante autorizado HL7.

Los “perfiles” con los que se comunicará con otros sistemas de información pueden certificarse en eventos de IHE Internacional denominados “Connectathon”.

Finalizando esta introducción al Módulo de Organización, no debemos dejar de mencionar que en el País donde se utilice este sistema puede existir una “Ley de Habeas Data” o “de Protección de Datos Personales”. Por favor tenga en cuenta el texto de esta Ley en su estrategia general de gestión.

Picture of System Administrator

Intrapreneur (Intrapreneurship)

by System Administrator - Thursday, 23 April 2015, 7:54 PM
 

Intrapreneur (Intrapreneurship)

Picture of System Administrator

Introducción (KW)

by System Administrator - Thursday, 2 May 2013, 6:48 PM
 

Con 30 años de experiencia en “las trincheras” de la gestión más sensible, proponemos una formidable oportunidad para gestionar eficientemente el conocimiento, cambiando para siempre la percepción y protagonismo del Usuario Final respecto a la tecnología que utiliza.

El stress tecnológico actual ha catalizado el hecho de que el “paradigma final” ya esté entre nosotros.

Este paradigma se sustenta en los siguientes hechos:

  1. Los contenidos son más importantes que la tecnología en sí misma.

  1. El verdadero ahorro para el Usuario Final vendrá por su capacidad para interoperar con el exterior, y no con los costes de desarrollo.

  1. Para el Usuario Final los debates Windows-Linux o Intel/AMD no son importantes, pues la verdadera elección se basará en qué plataforma (hardware + software) puede gestionar mejor su conocimiento (o “valor agregado”).

  1. Mucho se ha hablado de las “redes neuronales”, pero nadie ha colocado las bases concretas para que el Usuario Final (sin conocimientos de programación) sea pleno protagonista en su construcción (única forma de que existan realmente).

  1. El “embotellado” del conocimiento ya no es una opción con futuro.

  1. Aún no existen “clusters” de componentes abiertos y reusables de conocimiento (los de componentes de software para desarrolladores ya existen, pero no para los Usuarios Finales).

  1. La reusabilidad del conocimiento en forma práctica es una oportunidad única para desarrollar nuevos productos y servicios. Primero fue el PC, luego Internet, ahora: KW. Quien lidere esta iniciativa será el nuevo referente a nivel mundial. ¿Porqué?. Esta tecnología cambiará para siempre la percepción que el Usuario Final tiene sobre la tecnología informática.

  1. Los sistemas de gestión en entorno Web ("cloud computing", "virtualización") harán que paulatinamente los Dptos. de IT de las empresas, tal como los conocemos ahora, tiendan a desaparecer y sea el propio Usuario Final quien introduzca la lógica (HKW/SKW) y la experiencia (DKW) en su propio sistema de gestión.

  1. La creación de “Comunidades KW” es la solución práctica para implementar clusters de neuronas para todos los sectores de actividad: B2B, B2C, C2C, científicos, redes sociales y de cualquier otra Comunidad que genere conocimiento y desee que éste se vuelva proactivo. Solamente en el sector bio-tecnológico el impacto es enorme (ver Citas).

  2. Es una excelente forma de llevar a la práctica la Responsabilidad Social Empresarial.

Tal como funcionan las industrias corporativas del software y el hardware actualmente, sería preciso dar un salto muy grande y valiente para atender realmente las necesidades de gestión y expansión del talento humano. No debería ser necesario que terceros interpreten la innovación y experiencia de alguien con buenas ideas, “embotellando” en un determinado software este conocimiento ajeno para beneficio propio. De la misma forma, la falta de acceso al conocimiento y a las relaciones generadas a partir de él no debería coartar la capacidad de desarrollo de una persona, familia, sociedad o país.

Picture of System Administrator

ISO 9000/9001

by System Administrator - Thursday, 9 May 2013, 12:01 AM
 

ISO 9000 designa un conjunto de normas sobre calidad y gestión continua de calidad, establecidas por la Organización Internacional para la Estandarización (ISO). Se pueden aplicar en cualquier tipo de organización o actividad orientada a la producción de bienes o servicios. Las normas recogen tanto el contenido mínimo como las guías y herramientas específicas de implantación, como los métodos de auditoría. El ISO 9000 especifica la manera en que una organización opera, sus estándares de calidad, tiempos de entrega y niveles de servicio Existen más de 20 elementos en los estándares de este ISO que se relacionan con la manera en que los sistemas operan. Su implantación, aunque supone un duro trabajo, ofrece numerosas ventajas para las empresas, entre las que se cuentan:

  • Monitorizar los principales procesos.
  • Asegurar su efectividad.
  • Mantener registros de gestión, procesos y procedimientos.
  • Mejorar la satisfacción de los clientes o usuarios.
  • Mejora continua de procesos.
  • Reducir las incidencias de producción o prestación de servicios.

La Norma ISO 9001 ha sido elaborada por el Comité Técnico ISO/TC176 de la Organización Internacional para la Estandarización (ISO) y especifica los requisitos para un buen sistema de gestión de la calidad que pueden utilizarse para su aplicación interna por las organizaciones, para certificación o con fines contractuales.

 

 

Picture of System Administrator

ISO 9001:2015

by System Administrator - Wednesday, 12 August 2015, 9:47 PM
 

What’s Really New in ISO 9001:2015? Knowledge Management

Helping an organization implement a strategic knowledge management program

by Arun Hariharan

Peter Drucker once said, "The most important, and indeed the truly unique, contribution of management in the 20th century was the fifty-fold increase in the productivity of the manual worker in manufacturing. The most important contribution management needs to make in the 21st century is similarly to increase the productivity of knowledge work and the knowledge worker."

The importance of knowledge management (KM) as an important element of business excellence or strategic quality programs is gaining recognition. Some years ago, Baldrige and the European Foundation for Quality Management (EFQM) added criteria related to KM to their models.

Now, ISO 9001:2015 has a new clause, 7.1.6, on organizational knowledge and its management. This clause has no equivalent in ISO 9001:2008. In fact, it seems to be the only clause that is completely new. The other clauses seem to have some equivalent in the earlier version, in letter or in spirit. (For a comparison of the two ISO 9001 versions, click here.)

The objective of this series of articles is to help organizations and their leaders, management representatives, and ISO practitioners, that aspire to be certified to ISO 9001:2015, particularly with the clause 7.1.6.

The series is aimed at helping any organization implement a strategic knowledge management (KM) program relevant to their strategic objectives. Having a dual career as a quality professional and a KM professional gives me an opportunity to look at KM from a quality practitioner's point of view (and the other way around). It is with this dual perspective that I have tried to look at the new ISO 9001:2015 clause on KM.

In my recent book The Strategic Knowledge Management Handbook (ASQ Quality Press, 2015), I introduced the Strategic Knowledge Management Framework, which forms the subject of this article. The framework is based on my years of experience helping organizations with KM implementation. I believe that the framework contains what almost any type of organization needs in order to implement a strategic KM program with substantial and sustained results.

What is KM?

What are the differences between KM as a strategy and a technology-only approach?

Look at one definition of knowledge management: KM is an enabler to achieve an organization's objectives better and faster through an integrated set of initiatives, systems and behavioral interventions, aimed at promoting smooth flow and sharing of knowledge relevant to the organization, and the elimination of reinvention. KM seeks to facilitate the flow of knowledge from where it resides, to where it is required (that is, where it can be applied or used), to achieve the organization's objectives.

The differences between KM as a "strategy," as the above definition suggests, and a limited "technology only" approach are given below. A strategic KM Program has the following:

  • Senior-management involvement
  • Linked with broader organizational priorities
  • KM initiatives (such as knowledge-bases, communities of experts, and collaboration) are centered around predefined "mission-critical" areas
  • KM roles are clearly defined
  • Closed-looped processes for knowledge-sharing and replication in mission-critical areas—not left to choice or chance
  • Technology is an important enabler, but clearly only one component of a larger KM program

On the other hand, a technology-only approach to KM (which, unfortunately, some organizations take) is a narrow view that treats the implementation of some form of technology—usually an intranet/portal with some features of document management, storage, and collaboration—as the be-all-and-end-all of KM. In such an approach, KM is not linked to organizational priorities or employees' performance. Not surprisingly, many organizations that take the technology-only view end up getting lackluster results from KM.

The Strategic Knowledge Management Framework is designed to help you keep your organization's KM initiative strategic, and derive significant and sustained results from KM.

The Strategic Knowledge Management Framework

The Strategic Knowledge Management framework is given in Figure 1 and consists of the following elements:

1. The organization's knowledge management vision
2. KM strategy (how to achieve the KM vision)
3. Leadership/top management's role
4. People and roles
5. Culture/change management
6. KM processes
7. Measurement of KM results
8. Technology

 

Figure 1: Strategic Knowledge Management Framework

All eight elements of the framework must be in place, and work in coordination with each other, for a strategic KM program to deliver sustained results.

The sub-elements under each element are given in Table 1.

Strategic KM Framework Element

Sub-element(s)

1. KM vision

1. Broad direction
2. Link with broader organizational priorities
3. Helps to bring focus to, and sustain results from KM initiatives

2. KM strategy
(How to achieve the vision)

In several companies, we found the 360-degree knowledge management model to be an effective strategy to achieve the organization's KM vision. This model provides employees single-window access to all relevant knowledge and expertise from within and outside the organization, that is relevant to their domain. A detailed paper on the 360-degree KM model can be seen at http://www.tlainc.com/articl86.htm.

3. Leadership, top management's role, governance

1. Provide KM vision and direction.
2. Identify organizational priority areas and align KM efforts.
3. Define performance measures for KM.
4. Identify and put the right people in different KM roles.
5. Governance: create a structure and rhythm for regular review of progress and results.
6. Provide visibility and recognition for knowledge sharing and results from KM.

4. People, roles, structure

1. People-participation/mass-movement of knowledge-sharing and replication
2. Define roles such as knowledge manager, knowledge champion, subject matter expert, researcher, etc. Incorporate them into the organizational structure.

5. Culture/change management

1. Organization-wide culture of knowledge-sharing and "copying" of best practices
2. Uninhibited flow of knowledge/information
3. Visibly reward and recognize knowledge performance.
4. Key performance indicators/performance appraisal systems are realigned to reward knowledge sharing/replication.
5. Constant communication by senior leaders about expected culture/behavior
6. Lead by example (senior leaders must walk the talk).

6. KM processes

1. Standardized processes for knowledge-sharing, replication, and identification of best practices
2. Process for keeping content on online knowledge-sharing platforms, such as websites, accurate and updated. In the case of websites offering e-commerce (including e-government), proactive process must be in place to ensure that all links and transaction services are working.
3. Standard formats/templates for knowledge-sharing and replication
4. Measuring and publishing results of KM

7. Measurement of KM results

1. Measurement of results (lagging measures): Financial benefits (revenue or cost-savings), impact on customer satisfaction scores, reduction in customer complaints, improvement in internal/process-related measures, and so on.
2. Measurement of enablers (leading measures): Number of best-practices shared/published, number of best-practices replicated with business-results, employee engagement in KM (e.g., number of employees who shared knowledge, or replicated knowledge shared by other employees or from external sources, with results).

Monthly dashboards showing these results and their trend must be reviewed by senior leaders.

8. Technology

1. Portal to facilitate knowledge-exchange/virtual collaboration
2. Knowledge bases/repositories
3. Taxonomy, organized content, easy and quick search and retrieval
4. Organizational "yellow-pages"—virtual communities of experts (pool of talent)
5. Knowledge sharing/upload; workflow for review by experts and publishing
6. In the case of e-commerce and e-government websites providing transactional services and links—ensure links, payment gateways, etc. are always working

Table 1: Strategic Knowledge Management Framework—elements and sub-elements

My next article will provide a detailed explanation of each element of the strategic knowledge management framework.

Link: http://www.qualitydigest.com

Picture of System Administrator

ISO 9001:2015​

by System Administrator - Tuesday, 17 November 2015, 6:27 PM
 

Hablemos sobre la ISO 9001:2015​

by Normas9000.com

Nigel Croft, Presidente del subcomité ISO que desarrolló y revisó la norma: "[la ISO 9001:2015] es un proceso evolutivo más que revolucionario. [...] Estamos trayendo la ISO 9001 firmemente al siglo XXI. Las versiones anteriores de la ISO 9001 eran muy prescriptivas, con muchos requisitos de procedimientos documentados y registros. En las ediciones 2000 y 2008, nos hemos centrado más en la gestión de procesos y menos en la documentación. [...] Ahora hemos ido un paso más allá, y la ISO 9001:2015 es menos prescriptiva que su predecesor, centrándose en el rendimiento. Hemos logrado esto combinando el enfoque de procesos con el pensamiento basado en riesgos, y empleando el ciclo PHVA "Planificar-Hacer-Verificar-Actuar" (Plan-Do-Check-Act) en todos los niveles en la organización."

¿Por qué ha sido revisada la ISO 9001?

Las Normas de Sistemas de Gestión ISO son revisadas en cuanto a efectividad y sostenibilidad aproximadamente cada 5 a 8 años. 

La ISO 9001:2015 reemplaza las ediciones anteriores, los entes certificadores tendrán hasta tres años para migrar los certificados a la nueva versión. 

La ISO 9000, que establece los conceptos y el lenguaje utilizado a lo largo de la familia de normas ISO 9000, también ha sido revisada y una nueva edición está disponible.

La Norma ha sido revisada con los objetivos de:

  • Mayor importancia del servicio.
  • Mayores expectativas de las partes interesadas.
  • Mejor integración con otros Estándares de Sistemas de Gestión.
  • Adaptarse a complejas cadenas de suministros.
  • Globalización. 

También ha habido un cambio en la estructura de la norma. La ISO 9001:2015 y todo sistema de gestión futuro, seguirán la nueva estructura común de normas del sistema de gestión. Esto ayudará a las organizaciones con los sistemas integrados de gestión.

"Teniendo en cuenta que las organizaciones de hoy tienen varias normas de gestión implantadas, hemos diseñado la versión 2015 para integrarse fácilmente con otros sistemas de gestión. La nueva versión también ofrece una sólida base para las normas del sector de calidad (industria automotriz, aeroespacial, médica, etc.) y toma en cuenta las necesidades de los reguladores." Nigel Croft, Presidente del subcomité ISO.

Resumen de los principales cambios de la ISO 9001

  • La norma hace hincapié en el enfoque de proceso.
  • La norma solicita un pensamiento basado en riesgos.
  • Existe mayor flexibilidad en la documentación.
  • La norma se focaliza más en los actores.

Esta versión de la norma se basa en Siete Principios de Gestión de Calidad: 

La norma ISO 9001:2008 se basa en principios de calidad que son utilizados generalmente por la Alta Gerencia como una guía para la mejora de la calidad. Están definidos en la ISO 9000 y la ISO 9004. Sin embargo, estos principios han sido modificados en la versión 9001:2015. La nueva versión de la norma se basa en siete principios, los cuales incluyen:  

  1. Enfoque al cliente.
  2. Liderazgo.
  3. Compromiso de las personas.
  4. Enfoque en proceso.
  5. Mejora (fusión de anteriores: enfoques de sistema y de proceso). 
  6. Toma de decisiones basada en la evidencia. 
  7. Gestión de las relaciones.

Los dos primeros principios, enfoque al cliente y liderazgo, no han cambiado desde la versión 2008. El tercer principio, la participación de las personas, ha sido renombrado en Compromiso de las personas. El cuarto principio enfoque de procesos se mantiene igual. El quinto ha sido integrado al cuarto por lo que el número de principios pasa a siete.

El enfoque de procesos es usado en la versión 2008 de la ISO 9001, y se utiliza para desarrollar, implementar y mejorar la eficacia de un sistema de gestión de calidad. Sin embargo, la norma ISO 9001:2015 proporciona una perspectiva adicional en el enfoque de procesos, y aclara el porqué es esencial adoptarlo en cada proceso gerencial de la organización. Las organizaciones ahora están obligadas a determinar cada proceso necesario para el Sistema de Gestión de Calidad y mantener documentada la información necesaria para apoyar la operación de dichos procesos.

El Pensamiento basado en riesgos es también uno de los principales cambios en la nueva versión de la ISO 9001. El estándar no incluye el concepto de acción preventiva, pero hay otras dos series de requisitos que cubren el concepto y que incluyen requisitos sobre la gestión de riesgo.

La flexibilidad de la documentación es otro cambio importante en la Norma ISO 2001:2015. Los documentos de términos y registros han sido reemplazados por  "información documentada". No hay requisitos específicos que determinen tener documentados los procedimientos, sin embargo los procesos deberían ser documentados para demostrar conformidad.

Focalizarse más en los actores es otro cambio en la norma ISO 9001 2015. La nueva versión de la norma a menudo plantea el tema de las partes interesadas, que en este contexto se refiere a las partes interesadas, tanto internas como externas de la organización, con intereses en el proceso de gestión de la calidad. La norma requiere que las organizaciones se centren no sólo en requisitos de cliente, sino también en los requerimientos de otros actores o partes interesadas tales como empleados, proveedores y así sucesivamente, que puedan afectar el sistema de gestión de calidad.

La nueva norma tiene 10 cláusulas:

  • Alcance.
  • Referencias de normativa.
  • Términos y definiciones.
  • Contexto de la organización y del liderazgo.
  • Calendario para el Sistema de Gestión de la Calidad.
  • Soporte.
  • Operación.
  • Evaluación de desempeño. 
  • Mejora. 

ISO 9001:2015 - Just published!

by Maria Lazarte

The latest edition of ISO 9001, ISO's flagship quality management systems standard, has just been published. This concludes over three years of revision work by experts from nearly 95 participating and observing countries to bring the standard up to date with modern needs.

With over 1.1 million certificates issued worldwide, ISO 9001 helps organizations demonstrate to customers that they can offer products and services of consistently good quality. It also acts as a tool to streamline their processes and make them more efficient at what they do. Acting ISO Secretary-General Kevin McKinley explains: “ISO 9001 allows organizations to adapt to a changing world. It enhances an organization’s ability to satisfy its customers and provides a coherent foundation for growth and sustained success.”

The 2015 edition features important changes, which Nigel Croft, Chair of the ISO subcommittee that developed and revised the standard, refers to as an “evolutionary rather than a revolutionary” process. “We are just bringing ISO 9001 firmly into the 21st century. The earlier versions of ISO 9001 were quite prescriptive, with many requirements for documented procedures and records. In the 2000 and 2008 editions, we focused more on managing processes, and less on documentation.

“We have now gone a step further, and ISO 9001:2015 is even less prescriptive than its predecessor, focusing instead on performance. We have achieved this by combining the process approach with risk-based thinking, and employing the Plan-Do-Check-Act cycle at all levels in the organization.

“Knowing that today’s organizations will have several management standards in place, we have designed the 2015 version to be easily integrated with other management systems. The new version also provides a solid base for sector-quality standards (automotive, aerospace, medical industries, etc.), and takes into account the needs of regulators.”

As the much anticipated standard comes into being, Kevin McKinley concludes, “The world has changed, and this revision was needed to reflect this. Technology is driving increased expectations from customers and businesses. Barriers to trade have dropped due to lower tariffs, but also because of strategic instruments like International Standards. We are seeing a trend towards more complex global supply chains that demand integrated action. So organizations need to perform in new ways, and our quality management standards need to keep up with these expectations. I am confident that the 2015 edition of ISO 9001 can help them achieve this.”

The standard was developed by ISO/TC 176/SC 2, whose secretariat is held by BSI, ISO member for the UK. “This is a very important committee for ISO,” says Kevin, “one that has led the way in terms of global relevance, impact and utilization. I thank the experts for their hard effort.”

ISO 9001:2015 replaces previous editions and certification bodies will have up to three years to migrate certificates to the new version.

ISO 9000, which lays down the concepts and language used throughout the ISO 9000 family of standards, has also been revised and a new edition is available.

Learn all about the new ISO 9001:2015 in our five minute video:

The world’s quality management systems standard, ISO 9001, has been revised. Here, Kevin McKinley, Acting ISO Secretary-General, and Nigel Croft, Chair of the subcommittee that revised ISO 9001, tell you everything you need to know about the new edition of this landmark standard that enhances an organization’s ability to satisfy its customers and provides a coherent foundation for growth and sustained success.
La Norme internationale ISO 9001 sur les systèmes de management de la qualité vient d’être révisée. Dans cette vidéo, Kevin McKinley, Secrétaire général par intérim de l’ISO, et Nigel Croft, Président du sous-comité en charge de la révision d’ISO 9001, vous disent tout ce qu’il faut savoir sur la nouvelle édition de cette norme de référence qui améliore la capacité d’une organisation à satisfaire ses clients et offre des bases cohérentes pour une croissance et une réussite durables.

Link: http://www.iso.org

Picture of System Administrator

Istio

by System Administrator - Wednesday, 7 June 2017, 7:54 PM
 

IBM, Google y Lyft lanzan Istio, plataforma de microservicios de código abierto

por Darryl K. Taft

IBM, Google y Lyft unieron fuerzas con Istio, una plataforma de microservicios de código abierto que conecta y gestiona redes de microservicios, independientemente de su fuente o proveedor.

IBM, Google y Lyft se han unido para ofrecer Istio, una plataforma de microservicios de código abierto para desarrolladores.

El proyecto Istio es una colaboración entre las tres compañías para crear una tecnología abierta que proporcione una forma uniforme de conectar, asegurar, administrar y monitorizar redes de microservicios en plataformas de nube, independientemente de la plataforma, fuente o proveedor.

La plataforma de microservicios de código abierto soporta la gestión del tráfico entre microservicios, la imposición de políticas de acceso y la agregación de datos de telemetría, todo ello sin necesidad de cambios en el código de microservicios. El servicio también ofrece a los desarrolladores nuevos niveles de visibilidad, seguridad y control cuando construyen aplicaciones en la nube, ya que los microservicios y los contenedores se convierten en la forma de facto para construir aplicaciones, dijo IBM.

Paisaje cambiante

De hecho, Istio es una respuesta al cambiante panorama del desarrollo de aplicaciones con microservicios, que se centran en descomponer grandes aplicaciones en piezas más pequeñas y más manejables, dijo Scott Laningham, estratega de IBM developerWorks, en un video sobre el proyecto.

"Hemos tenido esta visión de tratar de crear un nuevo paradigma en torno a las aplicaciones nativas de la nube basadas en microservicios, y hemos estado en este viaje durante algún tiempo", dijo Ángel Díaz, vicepresidente de arquitectura y tecnología de la nube, a TechTarget. Díaz dijo que el viaje se remonta a 2014, cuando IBM unió fuerzas con Docker para llevar los contenedores a la gobernanza abierta. Y continuó con Big Blue empujando la Iniciativa Open Container, apoyando a la Cloud Native Computing Foundation y llevando la tecnología de orquestación de contenedores Kubernetes hacia la red.

Sin embargo, Díaz señaló que el interés de IBM en la descomposición de grandes aplicaciones en piezas más pequeñas se remonta casi tanto a la historia que IBM tiene en el negocio del software.

IBM se incorpora a esto de nuevo, ya que sus grandes clientes empresariales han comenzado a adoptar contenedores y microservicios como parte integral de sus entornos de desarrollo. "El enfoque de microservicios es particularmente adecuado para desarrollar software a gran escala y continuamente disponible en la nube", dijo Jason McGee, vicepresidente y CTO de IBM Cloud Platform, en un blog en Istio. Sin embargo, gestionar la escala de los esfuerzos de microservicios puede ser problemático, y ahí es donde entra Istio.

"A medida que los microservicios escalan dinámicamente, temas como el descubrimiento de servicios, el equilibrio de cargas y la recuperación de fallos necesitan ser resueltos uniformemente", dijo Laningham. "Es por eso que la colaboración en Istio es tan importante".

La plataforma de microservicios de código abierto ayuda a los equipos de software a realizar el descubrimiento de servicios, el equilibrio de carga, la tolerancia a fallos, el monitoreo de extremo a extremo y el enrutamiento dinámico para la experimentación de características, así como el cumplimiento y la seguridad, expresaron las tres compañías en un blog conjunto.

Tecnología de tres empresas

El proyecto Istio se basa en la tecnología de cada una de las empresas fundadoras: Amalgam8 de IBM, Service Control de Google y Envoy, de Lyft.

Construido en IBM Research, Amalgam8 es una malla de servicio unificado que proporciona un tejido de enrutamiento de tráfico con un plano de control programable para ayudar a los usuarios con pruebas tipo A/B y lanzamientos de canarios, así como para probar sistemáticamente la resistencia de sus servicios contra fallas, explicó McGee.

Una malla de servicio es una capa de infraestructura que se encuentra entre un servicio y la red que proporciona a los operadores el control que necesitan, al tiempo que libera a los desarrolladores de tener que resolver problemas comunes del sistema distribuido en su código.

Service Control de Google proporciona una malla de servicio con un plano de control que se centra en aplicar políticas, como listas de control de acceso, límites de velocidad y autenticación, además de recopilar datos de telemetría de varios servicios y proxies.

Y Lyft creó el proxy de Envoy para soportar su propio entorno de microservicios. La tecnología soporta el sistema de producción de Lyft, que abarca más de 10.000 máquinas virtuales (VM) que manejan más de 100 microservicios.

"IBM y Google quedaron impresionados por las capacidades de Envoy, el rendimiento y la disposición de los desarrolladores de Envoy para trabajar con la comunidad", dijo McGee.

Esfuerzos combinados y soporte temprano

De hecho, "quedó claro para todos nosotros que sería sumamente beneficioso combinar nuestros esfuerzos creando una abstracción de primera clase para el enrutamiento y la administración de políticas en Envoy, y exponer las API del plano de administración para controlar las características de Envoys de una manera que pueda ser fácilmente integrada con los flujos de integración continua y entrega continua [CI/CD]", dijo.

Así, además de desarrollar el plano de control de Istio, IBM también aportó varias características a Envoy, como la división de tráfico entre versiones de servicio, el seguimiento de solicitud distribuida con Zipkin y la inyección de fallas. Google endureció a Envoy en varios aspectos relacionados con la seguridad, el rendimiento y la escalabilidad, señaló McGee.

Charles King, analista principal de Pund-IT, dijo que cree que el anuncio de Istio es interesante en términos de tecnología y sus tres socios proveedores.

"En el lado de la tecnología, el problema que Istio pretende solucionar son demasiado reales –los desafíos que los equipos de desarrolladores enfrentan en términos de comunicaciones eficaces y mantener las piezas en movimiento de varios microservicios trabajando juntos sin problemas. La conversión de Istio de microservicios hacia una red de servicios integrados sujetos a enrutamiento programable y una capa de gestión compartida es un enfoque intrigante que parece que abordará los puntos de dolor clave y también permitirá que los microservicios escalen de manera más fácil y eficiente".

Istio actualmente se ejecuta en plataformas Kubernetes, como el IBM Bluemix Container Service. IBM y Google planean construir un soporte adicional para plataformas como Cloud Foundry y VMs en un futuro próximo.

McGee señaló que Istio ha generado apoyo temprano de varias fuentes, incluyendo Red Hat con Red Hat OpenShift y OpenShift Application Runtimes, Pivotal con Pivotal Cloud Foundry, Weaveworks con Weave Cloud y Weave Net 2.0, y Tigera con el Proyecto Calico Network Policy Engine.

Link: http://searchdatacenter.techtarget.com

Picture of System Administrator

IT Chargeback | IT Showback

by System Administrator - Wednesday, 18 January 2017, 6:32 PM
 

IT chargeback system

IT chargeback is an accounting strategy that applies the costs of IT services, hardware or software to the business unit in which they are used. This system contrasts with traditional IT accounting models in which a centralized department bears all of the IT costs in an organization and those costs are treated simply as corporate overhead. 

IT chargeback systems are sometimes called "responsibility accounting" because this sort of accounting demonstrates which departments or individuals are responsible for significant expenses. Such systems are intended to shift responsibility to users and encourage them to treat IT services as they would any other utility, which in turn encourages moderate use. 

Reporting systems that leverage IT chargeback can help administrators to clearly see what factors are driving costs and to budget accordingly. Such a system provides end users with more transparency into which business decisions are creating expenses and helps management identify how to achieve greater profitability. The cost of legacy systems, redundancies or expensive proprietary technologies also become clear, providing IT staff with an effective rationale for upgrades that are intended to improve utilization or reduce energy use and administration time. 

Since chargeback depends on a variety of IT metrics to provide equitable distribution of costs, a balance must always be struck between the precision of the system and the difficulty of collecting the necessary data. Complex IT chargeback systems can depend upon detailed line item accounting for each IT-related expense, including which business unit incurred it and whether it was for softwarehardware or services. Since single line item expenditures can sometimes be substantial and can be shared by multiple business units (a mainframe purchase, for example), usage data from the IT department is also needed to help split out these costs in an equitable manner. 

Simple IT chargeback systems are little more than straight allocations of IT costs based on readily available information, such as user counts, application counts, or even subjective estimation. At a lesser degree of complexity, an organization trades some of the effectiveness of IT chargeback for a smaller burden, in terms of time and money required to perform the chargeback. 

This shift turns internal IT systems into service providers that may be managed independently of the organization at large. An IT chargeback system provides useful metrics that can be compared against the costs of outsourcing such services to a third party. IT administrators and CIOs, for instance, could compare the effectiveness of internal departments at provisioning networks, providing storage capacity, making network data transfers or maintaining Web application uptime. There are other uses for the system as well. A CIO could take the results of a past quarter's IT chargeback to a CEO and use those numbers to assess whether the revenue created by taking advantage of business opportunities justifies the expense.

Despite such advantages, however, some CIOs find the internal politics associated with implementing and maintaining IT chargeback systems to be daunting, especially when combined with administrative costs and substantial accounting challenges. Nevertheless, IT chargeback systems have attracted considerable interest as energy costs and usage have soared in recent years. Increased adoption of private cloud infrastructures, software-as-a-service (SaaS) and on-demand service-oriented architectures (SOA) at many enterprises could make measuring usage and allocating costs easier than ever before as IT services are treated as a utility.

 

Learn more about IT:

Related Terms

IT showback

An IT showback system is a method of tracking data center utilization rates of an organization’s business units or end users. IT showback is similar to IT chargeback, but the metrics are for informational purposes only, and no one is billed.

IT showback is gaining popularity among companies with virtual or cloud-based infrastructures, in which resource utilization can be granularly tracked with the proper software. An IT showback system can reduce the accounting and political problems associated with IT chargeback (e.g., setting rates for resources), while promoting a culture of cost awareness in regards to IT assets. 

"With a showback system, the centralized IT organization compares and contrasts different groups within the business and looks for units operating well outside the norm in their resource usage -- and finds out why."Clive Longbottom

Showback the value of your data storage expertise
Mike Matchett says that though showback projects are challenging, these cost-benefit analyses can show business leaders the real value of IT.

Showback reduces costs and exposes resource hogs on your IT platform
Unlike a chargeback system, showback helps show the business where the costs of its IT platform are viable, and helps to optimize resources across business units.

Showback vs chargeback: Showback new resource analysis tool of choice
In a showback vs. chargeback comparison, showback is winning more fans than the more complex chargeback to help businesses plan projects, and track usage of storage, IT services, hardware and software.

Chargeback vs. showback: Which method is best for you?
Chargeback and showback are two methods that allow IT shops to recover costs, but these strategies present political and technical challenges.

Chargeback tactics to avoid an IT money pit
Price transparency and clear IT service portfolios are essential elements of successful chargeback approaches. Here's how to do chargeback, or showback, right.

Showback vs chargeback: Showback new resource analysis tool of choice

To Chargeback or Showback – That Is the Question

Link: http://searchservervirtualization.techtarget.com

Related Terms

Picture of System Administrator

ITIL (Information Technology Infrastructure Library)

by System Administrator - Thursday, 13 April 2017, 3:36 PM
 

ITIL - Information Technology Infrastructure Library

Fuente: Wikipedia

La Biblioteca de Infraestructura de Tecnologías de Información (o ITIL, por sus siglas en inglés) es un conjunto de conceptos y buenas prácticas usadas para la gestión de servicios de tecnologías de la información, el desarrollo de tecnologías de la información y las operaciones relacionadas con la misma en general. ITIL da descripciones detalladas de un extenso conjunto de procedimientos de gestión ideados para ayudar a las organizaciones a lograr calidad y eficiencia en las operaciones de TI. Estos procedimientos son independientes del proveedor y han sido desarrollados para servir como guía que abarque toda infraestructura, desarrollo y operaciones de TI.

Historia

Aunque se desarrolló durante los años 1980, ITIL no fue ampliamente adoptada hasta mediados de los años 1990. Esta mayor adopción y conocimiento ha llevado a varios estándares, incluyendo ISO/IEC 20000, que es una norma internacional cubriendo los elementos de gestión de servicios de TI de ITIL. ITIL se considera a menudo junto con otros marcos de trabajo de mejores prácticas como la Information Services Procurement Library (ISPL, ‘Biblioteca de adquisición de servicios de información’), la Application Services Library (ASL, ‘Biblioteca de servicios de aplicativos’), el método de desarrollo de sistemas dinámicos (DSDM, Dynamic Systems Development Method), el Modelo de Capacidad y Madurez (CMM/CMMI) y a menudo se relaciona con la gobernanza de tecnologías de la información mediante COBIT (Control OBjectives for Information and related Technology).

El concepto de gestión de servicios de TI, aunque relacionado con ITIL, no es idéntico: ITIL contiene una sección específicamente titulada «Gestión de Servicios de TI» (la combinación de los volúmenes de Servicio de Soporte y Prestación de Servicios, que son un ejemplo específico de un marco ITSM). Sin embargo es importante señalar que existen otros marcos parecidos. La Gestión de Servicio ITIL está actualmente integrado en el estándar ISO 20000 (anterior BS 15000).

ITIL se construye en torno a una vista basada en proceso-modelo del control y gestión de las operaciones a menudo atribuida a W. Edwards Deming. Las recomendaciones de ITIL fueron desarrolladas en los años 1980 por la Central Computer and Telecommunications Agency (CCTA) del gobierno británico como respuesta a la creciente dependencia de las tecnologías de la información y al reconocimiento de que sin prácticas estándar, los contratos de las agencias estatales y del sector privado creaban independientemente sus propias prácticas de gestión de TI y duplicaban esfuerzos dentro de sus proyectos TIC, lo que resultaba en errores comunes y mayores costes.

ITIL fue publicado como un conjunto de libros, cada uno dedicado a un área específica dentro de la Gestión de TI. Los nombres ITIL e IT Infrastructure Library (‘Biblioteca de infraestructura de TI’) son marcas registradas de la Office of Government Commerce (‘Oficina de comercio gubernamental’, OGC), que es una división del Ministerio de Hacienda del Reino Unido.

En abril de 2001 la CCTA fue integrada en la OGC, desapareciendo como organización separada.1

En diciembre de 2005, la OGC emitió un aviso de una actualización a ITIL,2 conocida comúnmente como ITIL v3, que estuvo planificada para ser publicada a finales de 2006; habiendo sido realizada en junio de 2007. Se esperaba que la publicación de ITIL versión 3 incluyera cinco libros principales, concretamente: Diseño de Servicios de TI, Introducción de los Servicios de TI, Operación de los Servicios de TI, Mejora de los Servicios de TI y Estrategias de los Servicios de TI, consolidando buena parte de las prácticas actuales de la versión 2 en torno al Ciclo de Vida de los Servicios.

Uno de los principales beneficios propugnado por los defensores de ITIL dentro de la comunidad de TI es que proporciona un vocabulario común, consistente en un glosario de términos precisamente definidos y ampliamente aceptados. Un nuevo glosario ampliado ha sido desarrollado como entregable clave de ITIL versión 3.

Otros modelos: CMMI para el desarrollo de software y s3m,3 para el mantenimiento del software

 

Un pin de certificación de la ITIL Foundation.

Certificación

Los particulares pueden conseguir varias certificaciones oficiales ITIL. Los estándares de calificación ITIL son gestionados por la ITIL Certification Management Board (ICMB) que agrupa a la OGC, a itSMF International y a los dos Institutos Examinadores existentes: EXIN (con sede en los Países Bajos) e ISEB (con sede en el Reino Unido).

Existen tres niveles de certificación ITIL para profesionales:

  1. Foundation Certificate (Certificado Básico): acredita un conocimiento básico de ITIL en gestión de servicios de tecnologías de la información y la comprensión de la terminología propia de ITIL. Está destinado a aquellas personas que deseen conocer las buenas prácticas especificadas en ITIL.
  2. Practitioner's Certificate (Certificado de Responsable): destinado a quienes tienen responsabilidad en el diseño de procesos de administración de departamentos de tecnologías de la información y en la planificación de las actividades asociadas a los procesos.
  3. Manager's Certificate (Certificado de Director): garantiza que quien lo posee dispone de profundos conocimientos en todas las materias relacionadas con la administración de departamentos de tecnologías de la información, y lo habilita para dirigir la implantación de soluciones basadas en ITIL.

No es posible certificar una organización o sistema de gestión como «conforme a ITIL», pero una organización que haya implementado las guías de ITIL sobre Gestión de los Servicios de TI puede lograr certificarse bajo la ISO/IEC 20000.

La versión 3 de ITIL, que apareció en junio de 2007, cambió ligeramente el esquema de Certificaciones, existiendo certificaciones puentes, se definen 3 niveles:

  1. Basic Level (Equivalente a ITIL Foundation en v3)
  2. Management and Capability Level (Equivalente a los niveles Practitioner y Manager en ITIL v2)
  3. Advanced Level (nuevo en v3)
  • Qué es ITIL

Historia y precursores de ITIL

Lo que actualmente se conoce como ITIL versión 1, desarrollada bajo el auspicio de la CCTA, se tituló Government Information Technology Infrastructure Method (‘Método de Infraestructura de la Tecnología de Información del Gobierno’, GITM) y durante varios años terminó expandiéndose hasta unos 31 libros dentro de un proyecto inicialmente dirigido por Peter Skinner y John Stewart. Las publicaciones fueron retituladas principalmente como resultado del deseo (por Roy Dibble de la CCTA) de que fueran vistas como una guía y no como un método formal, y como resultado del creciente interés que había fuera del gobierno británico.

Muchos de los conceptos principales de gestión de servicios no surgieron dentro del proyecto inicial de la CCTA para desarrollar ITIL. IBM afirma que sus Yellow Books (A Management System for the Information Business, ‘Un sistema de gestión para el negocio de la información’)4 5 fueron precursores clave. Según IBM:

A principios de los años 1980, IBM documentó los conceptos originales de Gestión de Sistemas en una serie de cuatro volúmenes titulada A Management System for Information Systems (sic). Estos ampliamente aceptados yellow books [...] fueron aportaciones claves para el conjunto originales de libros de ITIL.

Otras publicaciones de IBM y comentarios de los autores de ITIL aclaran que los yellow books fueron cruciales para el desarrollo del Servicio de Soporte pero que el volumen de Entrega de Servicios no tomó prestado de ellos hasta tales extremos.

Críticas a ITIL

ITIL ha recibido críticas de varios frentes. Entre ellas:

  • El hecho de que muchos defensores de ITIL parecen creer que es un marco holístico y completo para el gobierno de TI.
  • Su tendencia a convertirla en una religión.

Como señala Jan van Bon (autor y editor de muchas publicaciones de Gestión de Servicios de TI):

Hay mucha confusión sobre ITIL, procedente de todo tipo de malentendidos sobre su naturaleza. ITIL, como afirma la OGC, es un conjunto de buenas prácticas. La OGC no afirma que dichas mejores prácticas describan procesos puros, ni tampoco que ITIL sea un marco diseñado como un modelo coherente. Eso es lo que la mayoría de sus usuarios hacen de ella, probablemente porque tienen una gran necesidad de dicho modelo.6

El columnista CIO Magazine Dean Meyer también ha expuesto algunos puntos de vista cautelosos sobre ITIL,7 incluyendo cinco trampas típicas tales como «convertirse en esclavo de definiciones desactualizadas» y «dejar que ITIL se convierta en religión». Como Meyer señala, ITIL «no describe el abanico completo de procesos necesarios para ser líderes. Se centra en [...] gestionar servicios actuales.»

La calidad de los volúmenes de la biblioteca se considera desigual. Por ejemplo, van Herwaarden y Grift señalan que «la consistencia que caracterizaba los procesos de soporte al servicio [...] se pierde en gran medida en los libros de entrega de servicio.»8

Todas estas manifestaciones acerca de ITIL provienen de compañías que en un momento dado han logrado entender que `para alcanzar objetivos de manera clara es necesario realizar ciertas prácticas que cumplan con ese objetivo y los resultados demostrados son benéficos para quien los desarrolla y para quien hace uso de este entorno.

Visión general de la Biblioteca de Infraestructura de TI version 2 (ITIL v2)

La biblioteca de infraestructura de TI (ITIL) toma este nombre por tener su origen en un conjunto de libros, cada uno dedicado a una práctica específica dentro de la gestión de TI. Tras la publicación inicial de estos libros, su número creció rápidamente (dentro la versión 1) hasta unos 30 libros. Para hacer a ITIL más accesible (y menos costosa) a aquellos que deseen explorarla, uno de los objetivos del proyecto de actualización ITIL versión 2 fue agrupar los libros según unos conjuntos lógicos destinados a tratar los procesos de administración que cada uno cubre. De esta forma, diversos aspectos de los sistemas de TIC, de las aplicaciones y del servicio se presentan en conjuntos temáticos. Actualmente existe la nueva versión ITIL v3 que fue publicada en mayo de 2007.

Aunque el tema de Gestión de Servicios (Soporte de Servicio y Provisión de Servicio) es el más ampliamente difundido e implementado, el conjunto de mejores prácticas ITIL provee un conjunto completo de prácticas que abarca no sólo los procesos y requerimientos técnicos y operacionales, sino que se relaciona con la gestión estratégica, la gestión de operaciones y la gestión financiera de una organización moderna.

Los ocho libros de ITIL y sus temas son:

Gestión de Servicios de TI,
1. Mejores prácticas para la Provisión de Servicio
2. Mejores prácticas para el Soporte de Servicio
Otras guías operativas
3. Gestión de la infraestructura de TI
4. Gestión de la seguridad
5. Perspectiva de negocio
6. Gestión de aplicaciones
7. Gestión de activos de software

Para asistir en la implementación de prácticas ITIL, se publicó un libro adicional con guías de implementación (principalmente de la Gestión de Servicios):

8. Planeando implementar la Gestión de Servicios

Adicional a los ocho libros originales, más recientemente se añadió una guía con recomendaciones para departamentos de TIC más pequeños:

9. Implementación de ITIL a pequeña escala

Soporte de Servicio

El libro de Soporte de Servicio ( Service Support , ITIL V2 ) se ocupa de asegurar que el Usuario tenga acceso a los servicios apropiados que soporten las funciones de negocio. Los temas que se tratan en el libro incluye los siguientes Procesos:

  • Gestión del Incidente.
  • Gestión del Problema.
  • Gestión de Configuración.
  • Gestión del Cambio.
  • Gestión de la Entrega.
  • Centro de Servicio al Usuario ( Función).

Provisión de Servicio

El libro de Provisión de Servicio analiza qué servicio requiere el negocio del proveedor (entendiendo como proveedor la organización interna o externa que provee el servicio de TI), para ofrecer un soporte adecuado a los Usuarios y/o Clientes de negocio. El libro cubre los siguientes temas:

  • Gestión del Nivel de Servicio
  • Gestión Financiera de Servicios TI
  • Gestión de la Capacidad
  • Gestión de la Continuidad del Servicio de TI
  • Gestión de la Disponibilidad

Ciclo de Vida del Servicio

ITIL® Foundation estructura la gestión de los servicios TI sobre el concepto de Ciclo de Vida de los Servicios. Este enfoque tiene como objetivo ofrecer una visión global de la vida de un servicio desde su diseño hasta su eventual abandono sin por ello ignorar los detalles de todos los procesos y funciones involucrados en la eficiente prestación del mismo.

En ITIL v3 reestructura el manejo de los temas para consolidar el modelo de "ciclo de vida del servicio" separando y ampliando algunos subprocesos hasta convertirlos en procesos especializados. Esta modificación responde a un enfoque empresarial para grandes corporaciones que utilizan ampliamente ITIL en sus operaciones y aspira a consolidar el modelo para conseguir aún mejores resultados. Es por ello que los especialistas recomiendan que empresas emergentes o medianas no utilicen ITIL v3 si no cuentan con un modelo ITIL consolidado y aspiran a una expansión a muy largo plazo. El Ciclo de Vida del Servicio consta de cinco fases también llamadas disciplinas, correspondientes a los nuevos libros de ITIL®:

1. Estrategia del Servicio
2. Diseño del Servicio
3. Transición del Servicio
4. Operación del Servicio
5. Mejora Continua del Servicio

 

Estrategia del Servicio

Se enfoca en el estudio de mercado y posibilidades mediante la búsqueda de servicios innovadores que satisfagan al cliente tomando en cuenta la real factibilidad de su puesta en marcha. Así mismo se analizan posibles mejoras para servicios ya existentes. Se verifican los contratos con base en las nuevas ofertas de proveedores antiguos y posibles nuevos proveedores, lo que incluye la renovación o revocación de los contratos vigentes.

Procesos

  1. Gestión Financiera
  2. Gestión del Portafolio
  3. Gestión de la Demanda

Cambios en la versión 2011

Los conceptos dentro de la publicación se han aclarado, sin necesidad de cambiar el mensaje general. La publicación actualizada incluye una orientación más práctica y con más ejemplos.

  • Financial Management for IT services (Gestión Financiera de TI)

La gestión financiera de TI ha ampliado para incluir algunos de los elementos clave de la ITIL publicaciones anteriores que habían sido excluidos en la edición 2007 de la Estrategia del Servicio – tales como contabilidad, elaboración de presupuestos y de cargos.

  • Business Relationship Management (Gestión de Relaciones del Negocio)

Este es un nuevo proceso que se asemeja al existente en la ISO 20.000. Se hace una diferenciación para los distintos proveedores de servicio: tipo I, II y III . Se brinda una explicación diferente para cada tipo de proveedor.

  • Governance (Gobierno)

Ahora hay más detalles sobre el concepto de Gobierno, incluida una definición más completa de su significado, la diferencia entre el gobierno y gestión, un marco de gobierno, y cómo la gestión del servicio se relaciona con el gobierno.

  • Cloud Computing (Computación en la nube)

Se ha incluido en qué forma la gestión de servicios se ve afectada por la aparición de la computación en la nube. Se agregó un nuevo apéndice que cubre específicamente la estrategia de servicio y la nube: características, tipos, tipos de servicio, y los componentes de la arquitectura de nube.9

Diseño del Servicio

Una vez identificado un posible servicio el siguiente paso consiste en analizar su viabilidad. Para ello se toman factores tales como infraestructura disponible, capacitación del personal y se planifican aspectos como seguridad y prevención ante desastres. Para la puesta en marcha se toman en consideración la reasignación de cargos (contratación, despidos, ascensos, jubilaciones, etc), la infraestructura y software a implementar.

Procesos

  1. Gestión del Catálogo de Servicios
  2. Gestión de Niveles de Servicios
  3. Gestión de la Disponibilidad
  4. Gestión de la Capacidad
  5. Gestión de la Continuidad de los Servicios de TI
  6. Gestión de Proveedores
  7. Gestión de la Seguridad de Información
  8. Coordinación del Diseño (nuevo en la versión 2011)

Cambios en la versión 2011

Las principales modificaciones del libro de ITIL V3 Diseño del Servicio en su versión 2011 incluye: un cambio a los denominados 5 aspectos del diseño y primordialmente la inclusión de un nuevo proceso de Coordinación del Diseño. De esta manera esta fase incluye ahora 8 procesos, en lugar de 7.

Nuevo Proceso ITIL V3 2011: Coordinación del Diseño (Design Coordination Process)

Se adicionó este proceso para hacer más claro el flujo de actividades en el ciclo de vida del diseño. El propósito del proceso de Coordinación del Diseño es garantizar que las metas y los objetivos de la etapa de diseño del servicio entregando y manteniendo un punto único de coordinación y control de todas las actividades y procesos dentro de esta etapa del ciclo de vida de servicio. Las salidas del proceso de coordinación del diseño son potencialmente:10

  • Diseño de servicios integrado y consistente a través del SDP (paquete de diseño del servicio)
  • Revisión de la arquitectura empresarial
  • Revisión del sistema de gestión
  • Revisión de las métricas y métodos de medición
  • Revisión de procesos
  • Actualización del Portafolio de Servicios
  • Actualización de los Registros de Cambios

Transición del Servicio

Antes de poner en marcha el servicio se deben realizar pruebas. Para ello se analiza la información disponible acerca del nivel real de capacitación de los usuarios, estado de la infraestructura, recursos IT disponibles, entre otros. Luego se prepara un escenario para realizar pruebas; se replican las bases de datos, se preparan planes de rollback (reversión) y se realizan las pruebas. Luego de ello se limpia el escenario hasta el punto de partida y se analizan los resultados, de los cuales dependerá la implementación del servicio. En la evaluación se comparan las expectativas con los resultados reales.

Procesos

  1. Gestión de la Configuración y Activos
  2. Gestión del Cambio
  3. Gestión del Conocimiento
  4. Planificación y Apoyo a la Transición
  5. Gestión de Release y Despliegue
  6. Gestión Validación y Pruebas
  7. Evaluación (Evaluación del cambio)

Cambios en la versión 2011

En la edición ITIL V3 2011 del libro de Transición del Servicio, se realizaron modificaciones y aclaraciones, a efectos de mejorar el entendimiento de los conceptos.

Se aclaró la estructura , el contenido y las relaciones entre el Sistema de Gestión de Configuraciones (CMS) y el Sistema de Gestión del Conocimiento del Servicio (SKMS) para hacer más entendibles los conceptos.

Se incorporó un nuevo contenido relacionado con la forma que debe ser usado un Requerimiento de Cambio (RFC).

El proceso de Evaluación (que no se ve en fundamentos sino en el Intermediate RCV) fue renombrado como Evaluación del cambio. Se modificó su propósito y alcance, a efectos de clarificar cuando debe ser usado.

El proceso de Gestión de Activos y Configuraciones del Servicio tiene información adicional y se mejoraron los flujos de interacción con otros procesos, incluidos Gestión de Cambio, Gestión de Versiones y Entrega, y Evaluación del Cambio.

Por último se mejoraron las descripciones de los Elementos de Configuración (CI) , Sistema de Gestión de Configuraciones (CMS) y el Sistema de Gestión del Conocimiento del Servicio (SKMS)11

Operación del Servicio

En este punto se monitoriza activa y pasivamente el funcionamiento del servicio, se registran eventos, incidencias, problemas, peticiones y accesos al servicio. La percepción que el cliente y los usuarios tenga de los servicios adquiridos está condicionada por la última instancia fase en la cual se ven involucrados todas las partes de la organización. En todas las otras fases del ciclo de vida, como último objeto es medir y verificar que los servicios han aportado valor a la organización, con los niveles de ANS acordados. Es primordial la entrega a satisfacción del cliente del servicio con calidad de acuerdo a lo acordado.

Procesos

  1. Gestión de Incidentes
  2. Gestión de Problemas
  3. Cumplimiento de Solicitudes
  4. Gestión de Eventos
  5. Gestión de Accesos

Mejora Continua del Servicio

Se utilizan herramientas de medición y feedback para documentar la información referente al funcionamiento del servicio, los resultados obtenidos, problemas ocasionados, soluciones implementadas, etc. Para ello se debe verificar el nivel de conocimiento de los usuarios respecto al nuevo servicio, fomentar el registro e investigación referentes al servicio y disponer de la información al resto de los usuarios.

Referencias

ITIL v3 Foundation. (s.f.). http://itilv3.osiatis.es/ciclo_vida_servicios_TI.phphttp://itilv3.osiatis.es/operacion_servicios_TI.php

  1. Office of Government Commerce (Reino Unido). CCTA y OGC. Recuperado el 5 de mayo de 2005.
  2. Office of Government Commerce. ITIL Refresh Statement. Recuperada el 13 de febrero de 2006.
  3. A April A Abran (2008). «Software Maintenance Management - evaluation and continuous improvement» (HTML). Consultado el 16 de julio de 2008.
  4. IBM (1980). A Management System for the Information Business. White Plains, Nueva York: IBM.
  5. Van Schaik, E. A. (1985). A Management system for the Information Business. Englewood Cliffs, NJ, Prentice-Hall, Inc. ISBN 0-13-549965-8
  6. van Bon, J., ed. (2002). The guide to IT service management. Addison Wesley. ISBN 0-201-73792-2.
  7. Meyer, Dean, 2005. «Beneath the Buzz: ITIL»CIO Magazine, 31 de marzo de 2005
  8. Van Herwaarden, H. y F. Grift (2002). "IPW(tm) and the IPW Stadia Model(tm) (IPWSM)". The guide to IT service management. J. Van Bon. Londres, Addison-Wesley: 97-115.
  9. Actualización ITIL V3 2011: Estrategia del ServicioBITCompany, 9 de octubre de 2011.
  10. Actualización ITIL V3 2011: Diseño del ServicioBITCompany, 28 de octubre de 2011.
  11. Actualización ITIL V3 2011: Transición del ServicioBITCompany, 28 de octubre de 2011.

Enlaces externos

Si desea conocer más sobre ITIL v3 y el ciclo de vida del servicio puede consultar los siguientes vídeos de referencia:

Nombre del videoLinkPrioridad
¿Qué es ITIL? 1
¿Qué es ITIL?, 5 beneficios 2
Video ITIL v3 3
ITIL V3 Estrategia del Servicio 4
ITIL V3: Diseño del Servicio 5
ITIL Transición del Servicio 6
ITIL - Gestión de la Operación 7
Mejoramiento continuo del servicio ITIL 8
Catálogo de servicios ITIL v3 9
Que es un SLA 10

ITIL (Information Technology Infrastructure Library)

Posted by: Margaret Rouse

The ITIL (Information Technology Infrastructure Library) framework is designed to standardize the selection, planning, delivery and support of IT services to a business. The goal is to improve efficiency and achieve predictable service levels. The ITIL framework enables IT to be a business service partner, rather than just back-end support. ITIL guidelines and best practices align IT actions and expenses to business needs and change them as the business grows or shifts direction.

ITIL traces its roots back to the 1980s as data centers began decentralizing and adopting more distributed or geographically diverse architectures. This flexibility led to unwanted differences in processes and deployments, creating inconsistent or suboptimal performance. The United Kingdom's government recognized the importance of perceiving IT as a service and then applying consistent practices across the entire IT service lifecycle, and initiated ITIL.

ITIL encompasses a framework of five core publications or ITIL books, which are periodically reviewed and updated as technologies change. Each book collects best practices for each major phase of the IT service lifecycle. ITIL Service Strategy explains business goals and customer requirements. ITIL Service Design shows how to move strategies into plans that help the business. ITIL Service Transition shows how to introduce services into the environment. ITIL Service Operation explains how to manage the IT services. ITIL Continual Service Improvement helps adopters evaluate and plan large and small improvements to IT services.

ITIL-based IT infrastructure management can be a complex specialty for any business, and is often the domain of the largest IT-centric businesses such as MicrosoftHewlett-Packard and IBM, along with other major enterprises in retail, finance, pharmaceuticals, entertainment and manufacturing. ITIL adoption and maintenance normally requires trained and certified experts to guide a company and its IT staff.

Ongoing development for ITIL has been vested in Axelos, a joint-venture company created by the U.K. Cabinet Office and Capita PLC. The latest version of ITIL was released in July 2011 and is often called ITIL 2011. It clarifies and expands upon many of the processes from the previous 2007 edition, often called version 3 or ITIL v3.

 

Axelos supports five levels of ITIL certification: Foundation, Intermediate Level Lifecycle and Capability tracks, Managing Across the Lifecycle, Expert Level and Master Qualification. ITIL certifications are granted by Axelos through accredited Examination Institutes located globally. Certification candidates accrue credits within this ITIL qualification system that unlock higher-level certification options such as ITIL Expert.

Continue Reading About ITIL (Information Technology Infrastructure Library)


Page: (Previous)   1  2
  ALL