Glosario KW | KW Glossary

Ontology Design | Diseño de Ontologías

All categories

Page: (Previous)   1  2  3  4  5  6  7  8  9  10  ...  63  (Next)


Picture of System Administrator

Improving the Management and Governance of Unstructured Data

by System Administrator - Friday, 26 June 2015, 6:06 PM

Improving the Management and Governance of Unstructured Data

Maximize efficiency with deeper insight to data value and automated, policy-based compliance, retention & disposition.

Picture of System Administrator

Incident Response: How to Fight Back

by System Administrator - Wednesday, 7 January 2015, 4:02 PM


Incident Response: How to Fight Back

Highly public breaches at companies such as Target, Evernote and Living Social, which collectively compromised more than 200 million customer records, are pushing many organizations to develop in-house incident response (IR) capabilities to prevent such data breaches.

IR teams, typically operating under a formalized IR plan, are designed to detect, investigate and, when necessary, remediate organizational assets in the event of a critical incident. SANS conducted a survey focused on the current state of IR during May and June 2014, polling security professionals from more than 19 industries and various-sized companies and organizations. The goal was to get a clearer picture of what IR teams are up against today—the types of attacks they see and what defenses they have in place to detect and respond to these threats. In addition, the survey measured the IR teams’ perceived effectiveness and obstacles to incident handling.

Of the 259 survey respondents, 88% work in an IR role, making this a target audience for soliciting close to real-time data on the current state of IR. Respondents represented 13 different regions and countries and work in management (28%), or as security analysts (29%), incident responders (13%) and forensic examiners (7%). This broad representation helps shed light on both present and future IR capabilities.

Please read the attached whitepaper.

Picture of System Administrator

Indirect Competition

by System Administrator - Thursday, 13 August 2015, 4:41 PM

Indirect Competition

Posted by: Margaret Rouse

Indirect competition is the conflict between vendors whose products or services are not the same but that could satisfy the same consumer need. 

The term contrasts with direct competition, in which businesses are selling products or services that are essentially the same. Cloud storage providers are direct competitors, for example, as are manufacturers of notebook computers

However, in recent years, desktop computer sales have dropped as many consumers purchased notebooks instead. Sellers of desktop PCs and notebooks are indirect competitors. 

In the 1960s, Theodore Levitt wrote a highly-influential article called "Marketing Myopia” for the Harvard Business Review recommending that businesses should take a much broader view of the competitive environment. Leavitt argued that the market’s central organizing element is human needs and that the satisfaction of those needs should be the focus of businesses. Products and services are transient but human needs are not. From that perspective, the distinction between direct and indirect competition is unimportant.

Related Terms



  • Business terms

    - Terms related to business, including definitions about project management and words and phrases about human resources, finance and vertical industries.

  • Internet applications

    - This glossary contains terms related to Internet applications, including definitions about Software as a Service (SaaS) delivery models and words and phrases about web sites, e-commerce ...

Picture of System Administrator

Industrial Internet of Things (IIoT)

by System Administrator - Tuesday, 7 April 2015, 6:57 PM

Industrial Internet of Things (IIoT)

Posted by Margaret Rouse

IIoT harnesses the sensor data, machine-to-machine communication and automation technologies that have existed in industrial settings for years.

The Industrial Internet of Things (IIoT) is the use of Internet of Things (IoT) technologies in manufacturing.

Also known as the Industrial Internet, IIoT incorporates machine learning and big data technology, harnessing the sensor data, machine-to-machine (M2M) communication and automation technologies that have existed in industrial settings for years. The driving philosophy behind the IIoT is that smart machines are better than humans at accurately, consistently capturing and communicating data. This data can enable companies to pick up on inefficiencies and problems sooner, saving time and money and supporting business intelligence efforts. In manufacturing specifically, IIoT holds great potential for quality control, sustainable and green practices, supply chain traceability and overall supply chain efficiency.

A major concern surrounding the Industrial IoT is interoperability between devices and machines that use different protocols and have different architectures. The nonprofit Industrial Internet Consortium, founded in 2014, focuses on creating standards that promote open interoperability and the development of common architectures.

Continue Reading About Industrial Internet of Things (IIoT)


Picture of System Administrator

Infographic: US employees concerned about BYOD reimbursement

by System Administrator - Monday, 13 July 2015, 5:22 PM

US employees concerned about BYOD reimbursement

Picture of System Administrator

Information Governance Best Practice: Adopt a Use Case Approach

by System Administrator - Monday, 16 February 2015, 4:10 PM

Information Governance Best Practice: Adopt a Use Case Approach

by Debra LoganAlan DayleySheila Childs


Massive data growth, new data types, litigation, regulatory scrutiny and privacy/information risks have all created an urgent need for information governance. IT professionals considering MDM, e-discovery, information archiving or cloud migration should start implementing information governance now.


  • Data migration projects present an opportunity for legal and IT professionals to eliminate redundant, outdated and trivial data, by up to 60% in some cases, decreasing data management costs and reducing legal and regulatory risks.
  • Master data management (MDM), data quality, archiving, enterprise content management (ECM), records management or e-discovery system implementation can be used as a starting point for chief information officers (CIOs) to create specific information governance policies and set the stage for using information assets to drive business growth.
  • Increasing concerns about data security, privacy, personally identifiable information, intellectual property (IP) protection and e-discovery mean that IT has new business partners, such as chief legal and chief risk officers, to assist with its information governance efforts.
  • Use data migration and system retirement as an opportunity to undertake an information governance program, especially "defensible deletion" or legacy information clean up.
  • Focus on MDM, enterprise content management and data quality projects if your organization is seeking cost optimization, of the business benefits associated with growth enablement, service improvement, reduced risk or regulatory compliance.
  • Avoid wasting time and money on overlapping and redundant efforts by bringing the information governance projects that are proliferating in the areas of privacy and data security together now.

Interest in information governance among Gartner clients continues to be strong with "information management" or "information governance" being the topic of over 1,900 inquiries in the six months to September 2013.

Organizations have been talking about information governance for quite a few years, but it is only now that we see more widespread understanding of what it takes to accomplish it. Information governance is starting to expand beyond the traditional litigation and regulatory retention requirements (for risk and cost control) into possible business value propositions. These ideas have finally broken through the ingrained mentality that many had about storage being "inexpensive" and that it was easier to simply keep information than to delete it, or that search technology would allow enterprises to forgo the effort and expense of organizing themselves and devoting resources to governance (see Note 1 for Gartner's definitions of "governance" and "information governance" and how these relate to overall corporate governance).

While more and more organizations are talking about information governance, they are also realizing that governance is technically complex, organizationally challenging and politically sensitive. In addition, it is often difficult to get executive-level sponsorship for governance programs because, in general, executives do not recognize the need for governance — not least because the effects of a lack of information governance are not as readily apparent as other pressing IT concerns. This is starting to change, however, as executives realize that many kinds of difficulties — such as failing to comply with regulatory regimes, excessive litigation costs and a lack of decision-making transparency — are, in fact, failures that have a root cause in poor information governance.

An approach to information governance based on specific use cases is one way to break through these barriers to adoption. This impact assessment presents different information governance use cases, all of which can be used as starting points for larger programs. This approach is one that has been proven successful by many organizations, and our impacts and recommendations can help your enterprise to achieve the same early success in beginning — or continuing — its information governance program (see the Note 2 for examples).

Information governance is a topic of interest both inside and outside IT. CIOs, chief data officers, infrastructure managers, chief information security officers, risk and compliance officers and general counsel can use this research to make decisions about where to start their information governance programs.

Figure 1. Impacts and Top Recommendations for Information Governance Use Cases

ECM = enterprise content management; CIO = chief information officer; IP = intellectual property; MDM = master data management | Source: Gartner (November 2013)

Impacts and Recommendations

Data migration projects present an opportunity for legal and IT professionals to eliminate redundant, outdated and trivial data, by up to 60% in some cases, decreasing data management costs and reducing legal and regulatory risks

Data migration and IT infrastructure modernization are two of the most common information governance use cases. There are a number of variations on this use case, such as migrating file shares to ECM or SharePoint, files to cloud storage (including file sync and share services), and moving data from legacy storage to more modern and cost-effective platforms.

Clients who undertake analysis of existing data stores always tell us that redundant, outdated, trivial and risky data represents between 15% and 60% of what they have (see the Evidence section)

Another example is the migration of legacy enterprise information archiving systems to next-generation, on-premises or SaaS products or services. Enterprise information archiving systems are the target system type in many migrations. Archiving solves several problems that cannot be handled in native email systems, social media systems or by using file shares as primary storage. Archiving systems have been put in place as solutions for storage management, e-discovery, compliance, indexing, search and business or market analysis.

There are two primary use cases here:

  1. The migration of email or files from the email system or from file shares to an archiving system.
  2. The migration from one archiving system to another.

In the process of moving files from one location to another, many enterprises take the opportunity to create rules that allow data to be identified, classified and assessed for ongoing retention or for deletion. In practice, what has happened over the years is that companies have "over-retained" email and files and migration presents an opportunity to delete data that no longer has any business value and doesn't need to be retained for legal or regulatory purposes.

The Recommended Reading section has more advice on the legal and regulatory implications of legacy application retirement.


  • Use data migration and system retirement as an opportunity to undertake an information governance program, especially "defensible deletion" or legacy information clean up.
  • Storage managers or other IT professionals who are considering any archiving scenario should work with legal and compliance professionals to create rules for retaining only the data that is necessary, usually no more than three years' worth, or that which has had a "litigation hold" placed on it. In many cases legal will have asked for the data to be held, but never rescinded the litigation hold, even though the matter is no longer ongoing.
  • When moving files to an ECM system or SharePoint, organizations should include a component of data classification and tagging, again with the involvement of legal and compliance users.
  • Use hardware refreshes and storage redesign projects as an opportunity to introduce information governance to IT.

MDM, data quality, archiving, ECM, records management or e-discovery system implementation can be used as a starting point for CIOs to create specific information governance policies and set the stage for using information assets to drive business growth.

Information governance can be proactive or reactive. Many organizations find themselves in the position of having to retrospectively apply policy and assign responsibility for data, because that was not done at the outset of the project or when the data was created. Proactive information governance takes place at the time of system planning or process creation. The types of projects that lend themselves well to setting up governance structures, roles and policies include MDM, data quality, application archiving and retirement, ECM, records management, e-discovery data collection, business analytics, social analytics and social media compliance

Determining decision rights and responsibilities — along with accountability for setting policy, implementing policy and enforcing policy — should all be part of the project plan for any of these systems. Having carried out this work for one type of project will enable you to extend it to other systems, both old and new, within your enterprise. As a best practice it is essential that these projects be linked and that governance methods be consistent across the full range of information types, irrespective of system of origin or where the data ends up.

Another best practice is the creation of data stewards, giving specific responsibility and accountability to individuals who have an ongoing responsibility for managing the driving revenue, improving service and decreasing time to market are the business benefits that are often sought when implementing MDM, ECM, data quality and e-discovery projects. The starting point for any proactive information governance program must begin with an effort to value the information as an asset.

Questions that make good starting points include

  • "What is the most critical business information we have?"
  • "What information is shared across business processes on an enterprise wide basis?"
  • "Where is our intellectual property?"

To get maximum leverage and value from customer data that is the subject of an MDM project, one must also consider how that data will be used, who gets to use it and how as well as the legalities of doing so.


  • When planning MDM, ECM, data quality and e-discovery projects or programs, use Gartner's methodology (see "Toolkit: Information Governance Project") to identify stakeholders and assess their roles in the management of the data, according to a standard responsible, accountable, consulted and informed (RACI) chart. The two main questions that need to be answered initially are:
    • "Who is responsible for information decisions and policy?"
    • "Who is responsible for data-related policy and processes?"
  • In order to eliminate duplication of effort and data redundancy, or the need for reconciliation, ensure that implementation of policy, workflow, data dictionaries, business glossaries, taxonomies, reference data and other organizational and definitional elements of information governance are led by business subject matter experts and accessed by all governance programs and personnel.

Increasing concerns about data security, privacy, personally identifiable information, IP protection and e-discovery mean that IT has new business partners, such as chief legal and chief risk officers, to assist with its information governance efforts

According to Gartner's annual privacy survey, organization spending on privacy programs around consumers or citizens is as follows:

  • 36% spend $10 or more per employee per year.
  • 32% spend $100 or more on each employee per year.
  • 11% spend $1,000 or more on each employee per year.

Table 1 contains selected data from Fulbright and Jaworski's Annual Litigation Trends Survey (2012).






Companies spending more than $1 million on litigation



Large companies spending more than $1 million on litigation





Companies that had at least one regulatory proceeding commenced against them






Companies that dealt with at least one investigation in 2012 (by industry sector)

  • Energy
  • Technology/communications
  • Retail/wholesale
  • Healthcare
  • Insurance






Source: Gartner (November 2013)

Compliance managers trying to understand the regulations that will apply to them can be overwhelmed by global regulatory proliferation, and this is further complicated by regulations that conflict with each other. This creates serious legal and compliance risks.

Corporate governance, security breach notification, privacy and data protection, and industry-specific regulations — such as money-laundering or bribery laws — have added layer upon layer of compliance to IT processes and activities. Typically, a new regulation or other binding requirement (such as payment card industry compliance) is followed by a revised corporate and departmental policy, which is then translated into a new set of controls that must be maintained by someone in the IT organization. Over time, these controls begin to overlap and audits are conducted by separate groups of internal auditors, regulatory examiners and assessors from business partners — with each group issuing its own questionnaire and requiring its own report.

There is no way to stay in compliance, safeguard privacy, protect IP or decrease litigation costs while responding to the appropriate legal challenges and regulatory requests outside of a unified information governance framework.


  • Work with the legal department to compile a list of regulations.
  • Complete a compliance risk assessment to prioritize regulatory compliance efforts.
  • Map regulations to policies and controls to identify overlaps, redundancies and gaps in policies, controls and records retention requirements.
  • Redesign policies and controls so they can meet multiple regulations without unnecessary duplication.
  • Implement technology that can provide metadata and content analysis of information and to support policy creation by providing snapshots of your organization's data.


© 2013 Gartner, Inc. and/or its affiliates. All rights reserved. Gartner is a registered trademark of Gartner, Inc. or its affiliates. This publication may not be reproduced or distributed in any form without Gartner’s prior written permission. If you are authorized to access this publication, your use of it is subject to theUsage Guidelines for Gartner Services posted on The information contained in this publication has been obtained from sources believed to be reliable. Gartner disclaims all warranties as to the accuracy, completeness or adequacy of such information and shall have no liability for errors, omissions or inadequacies in such information. This publication consists of the opinions of Gartner’s research organization and should not be construed as statements of fact. The opinions expressed herein are subject to change without notice. Although Gartner research may include a discussion of related legal issues, Gartner does not provide legal advice or services and its research should not be construed or used as such. Gartner is a public company, and its shareholders may include firms and funds that have financial interests in entities covered in Gartner research. Gartner’s Board of Directors may include senior managers of these firms or funds. Gartner research is produced independently by its research organization without input or influence from these firms, funds or their managers. For further information on the independence and integrity of Gartner research, see “Guiding Principles on Independence and Objectivity.”


Picture of System Administrator

Infrastructure (IT Infrastructure)

by System Administrator - Thursday, 13 April 2017, 8:55 PM

Infrastructure (IT Infrastructure)

Posted by: Margaret Rouse | Contributor: Clive Longbottom

Infrastructure is the foundation or framework that supports a system or organization. In computing, infrastructure is composed of physical and virtual resources that support the flow, storage, processing and analysis of data. Infrastructure may be centralized within a data center, or it may be decentralized and spread across several data centers that are either controlled by the organization or by a third party, such as a colocation facility or cloud provider.

In a data center, infrastructure includes the power, cooling and building elements necessary to support hardware. On the internet, infrastructure also includes transmission media, such as network cables, satellites, antennas, routers, aggregators, repeaters and other devices that control data transmission paths. Cloud computing provides a flexible IT infrastructure in which resources can be added and removed as workloads change.

The way IT infrastructures are created is continually changing. Today, some vendors provide pre-engineered blocks of compute, storage and network equipment that optimize the IT hardware and virtualization platform into a single system that can be easily interconnected to other systems. This modular approach is called converged infrastructure.
Regardless of how it is created, an IT infrastructure must provide a suitable platform for all the necessary IT applications and functions an organization or individual requires. Viewing IT infrastructure as a single entity can result in better effectiveness and more efficiency. It allows resources to be optimized for different workloads, and the impact of any changes on interrelated resources to be more readily understood and handled.

Infrastructure management is sometimes divided into categories of systems managementnetwork management, and storage managementHands-off infrastructure management uses a software-defined approach to management and automation to minimize the need for physical interaction with infrastructure components. 

Types of infrastructures

An immutable infrastructure is an approach to managing services and software deployments on IT resources wherein components are replaced rather than changed. An application or services is effectively redeployed each time any change occurs.

composable infrastructure is a framework that treats physical compute, storage and network fabric resources as services. Resources are logically pooled so that administrators don't have to physically configure hardware to support a specific software application.

dynamic infrastructure is a framework that can automatically provision and adjust itself as workload demands change. IT administrators can also choose to manage these resources manually.

critical infrastructure is a framework whose assets are so essential that their continued operation is required to ensure the security of a given nation, its economy, and the public’s health and/or safety.

contact center infrastructure is a framework composed of the physical and virtual resources that a call center facility needs to operate effectively. Infrastructure components include automatic call distributors, integrated voice response units, computer-telephony integration and queue management.

cloud infrastructure includes an abstraction layer that virtualizes resources and logically presents them to users over the internet through application program interfaces and API-enabled command-line or graphical interfaces.

dark infrastructure is that part of a framework that is composed of undocumented but active software or services whose existence and function is unknown to system administrators -- despite the fact that it may be integral to the continued operation of documented infrastructure.

cloud storage infrastructure is a framework composed of hardware and software framework that supports the computing requirements of a private or public cloud storage service. 


Picture of System Administrator

Innovation Process Management (IPM)

by System Administrator - Thursday, 2 July 2015, 7:46 PM

innovation process management (IPM) definition

Posted by Margaret Rouse

Innovation process management (IPM) refers to the management of processes used to spur product and organizational innovation. The purpose of innovation process management is to trigger the creative capabilities of employees, create an environment that encourages innovation and develop repeatable processes that make innovation an integral part of the workplace.

According to the consultancy Gartner Inc., companies that can successfully manage and maintain innovation within the workplace can increase revenue, improve operational effectiveness, and pursue new business models.

Common tools or strategies used to elicit this creativity from employees include brainstorming, virtual prototyping, product lifecycle management, idea management, product line planning, portfolio management and more.

Innovation processes often fall into two categories: "pushed" or "pulled." A pushed process is when a company has access to existing or emerging technologies and tries to find a profitable application for it. A pulled process is when the company focuses on areas where the customers' needs are not met and a solution is found.

An important aspect of keeping innovation, especially IT innovation, alive within a company is cultivating and maintaining an innovative culture.

One type of innovation culture is a formulaic innovation culture. A formulaic innovation management style instills a vision throughout the workplace and continually supports that vision through operational processes that enable employees to take measured risks. New ideas are encouraged, can come from anyone within the company and, when good ideas do surface, that idea is supported through one of the company's time-tested processes. The possible drawbacks to this type of business innovation management is that companies can begin to value the system over the breakthroughs, and the culture within the organization can become complacent.

Another type of innovation culture is an entrepreneurial innovation culture. This type of innovation culture is rare and usually features, especially early on in the company's maturity, a single innovator or leader. Steve Jobs, the cofounder of Apple Inc. was an example of the single leader inspired innovation culture, as is Mark Zuckerberg, chairman and CEO of Facebook. These types of companies are usually willing to take risks that most companies would not. These types of companies strive for major disruption rather than incremental growth and they use emerging and disruptive technologies to change how a certain product or service is used. One possible drawback is that the company can rely too heavily on the innovative leader.

Gartner's recommendation to IT leaders interested in launching an innovation management program is to follow a disciplined approach. Here are five steps Gartner recommends IT leaders and their companies take to develop an innovation management program:

  1.  Strategize and plan: Settle on an agreement of the vision for the initiative that is also in line with business goals. Then establish the resources and budget, and integrate the vision with IT and business plans.
  2. Develop governance: Establish a process for making decisions. This includes identifying and engaging stakeholders, agreeing on who is in charge and what the flow for decision making is, and also having feedback mechanisms in place.
  3. Drive change management: Have systems by which people can communicate and socialize via multiple channels; get buy-in from stakeholders at all levels; and assess which open innovation initiatives and cultural shifts will help the company optimize contributions to innovation.
  4. Execute: Make sure to draw from a wide range of sources to generate ideas for innovations that will transform the business, align the initiatives with business goals, and then update and drive new elements of the initiatives in response to changing business requirements.
  5. Measure and improve: Once the innovative initiative is in place, monitor and measure how it has affected business outcomes. It is also important to seek feedback from stakeholders and to continue to study innovation best practices and case studies from other organizations. Also make sure to continually drive improvements through process changes and upgrades.


Picture of System Administrator

Insecure File Sharing

by System Administrator - Thursday, 17 September 2015, 8:35 PM

Breaking Bad: The Risk of Insecure File Sharing

by Intralinks

Data leakage and loss from negligent file sharing and information collaboration practices is becoming just as significant a risk as data theft. Just like malicious threats from hackers and others, data leakage through the routine and insecure sharing of information is a major threat to many organizations. Being able to securely share valuable corporate data is a critical requirement for all organizations, but especially regulated companies like financial services and life sciences firms.

Many companies have few provisions in place – process, governance, and technology – to adequately protect data. Yet, more and more sensitive information is being shared outside the organization, often without the knowledge or approval of CIOs or GRC professionals who are arguably losing control. Employees are 'behaving badly' – they acknowledge risky behavior and in turn experience the consequences of risky behavior regularly.

For the first time, the study Breaking Bad: The Risk of Insecure File Sharing explores the link between organizational and individual behavior when using increasingly popular file sync-andshare solutions. As shown in this research, organizations are not responding to the risk of ungoverned files-sharing practices among employees as well as with external parties, such as business partners, contractors, vendors and other stakeholders.

Consumer grade file-sharing cloud applications are popular with both employees and organizations because they make it possible for busy professionals to work efficiently together.

However, the findings in this report identify the holes in document and file level security in part caused by their expanded use. The goal is to provide solutions to reduce the risk created by employees' document and file sharing practices. More than 1,000 IT and IT security practitioners were surveyed in the United States, United Kingdom and Germany. The majority of respondents are at the supervisor level or above with expertise and understanding of their organization's use of file-sharing solutions and overall information security and data privacy policies and strategies.

Following are the key takeaways from this study...

Please read the attached whitepaper.

Picture of System Administrator

Integrating Big Data into Business Processes and Enterprise Systems

by System Administrator - Wednesday, 10 September 2014, 9:18 PM

Integrating Big Data into Business Processes and Enterprise Systems

In the paper, "Integrate Big Data into Your Business Processes and Enterprise Systems" you'll learn how to drive maximum value with an enterprise approach to Big Data. Topics discussed include:

  • How to ensure that your Big Data projects will drive clearly defined business value
  • The operational challenges each Big Data initiative must address
  • The importance of using an enterprise approach for Hadoop batch processing

Please read the attached whitepaper

Picture of System Administrator

Integrating Physical Layer Management Systems into Today’s Networks

by System Administrator - Tuesday, 4 November 2014, 5:40 PM

Integrating Physical Layer Management Systems into Today’s Networks


TE Connectivity

Damon DeBenedictis has had a 17-year career at TE Connectivity, managing copper and fiber product portfolios that have led to market-changing technologies for data centers, office networks, and broadcast networks.

Physical layer management (PLM) systems provide complete visibility into the physical state of the network at any given time, but integrating such systems into a network and business processes may seem like a complex project. Where does one start? When do you integrate PLM and how do you do it? In this article, we’ll look PLM and at some key considerations when integrating a PLM system into a network.

Breaking down a PLM system

A PLM system is a tool that network managers use to access and catalogue real-time status information about their physical layer networks. PLM systems bring layer 1 to the same visibility as layers 2-7 by including intelligent connectors on patch cords and intelligent ports on patch panels. The solution software reports the state of every network connection: whether or not it is connected, how much bandwidth a circuit can carry, and the type of circuit (i.e., Cat5/6 Ethernet or single- or multi-mode fiber). The PLM system also provides circuit mapping, alarming, and reporting.

Areas of consideration prior to integration

The key opportunity for implementing a PLM system arises when there is a new data center or data center expansion project. This is the time to consider PLM.

There are two basic ways to integrate a PLM system into a network:

  1. Use the PLM system’s own application and database;
  2. Use a middleware API in the PLM system to integrate its output into an existing network management system.

The decision about which route to take depends on the network manager’s tolerance for using an additional management system on top of the others he or she is already using, and whether or not it’s worth the effort to adopt a new system.

Two ways to integrate: the pros and cons of both

The advantage to using the PLM system’s own application and database is that it manages the entire physical layer, mapping circuits, issuing work orders, reserving ports for new connections, reporting on circuit and patch panel inventories, and other functions. However, using a new application may require some duplication of effort as the manager compares the PLM system’s output with the output of other management systems. In addition, the PLM application will require process changes to employee workflows as a new work order system is integrated.

With the middleware approach, the manager need not change anything about employee workflows. However, the value of the input is limited to what the target management system can accept. For example, if the management system doesn’t understand the network at the patch cord level, then patch cord status and locations will not be available to the network manager.

Choosing between the two, what’s right for you?

One key to deciding between the application and middleware approaches is to determine whether or not the existing work order and documentation systems are working well. Large carriers use existing or home grown software tools to manage their networks. Frequently, these systems include work order management systems that automatically email work orders to the appropriate technicians. In smaller organizations, however, network documentation may be done manually on spreadsheets. Either way, these manual data entry tools are fraught with errors and very labor-intensive.

If a company has a robust work order management system and simply wants to add awareness of the physical network to its suite of tools, then integrating PLM middleware into an existing management system is the way to go. But for companies that struggle with work order management, using the PLM application will be well worth whatever changes must take place in employee workflows.

Industry Perspectives is a content channel at Data Center Knowledge highlighting thought leadership in the data center arena. See our guidelines and submission process for information on participating. View previously published Industry Perspectives in our Knowledge Library.



Picture of System Administrator

Intel® RealSense™ SDK

by System Administrator - Wednesday, 4 November 2015, 3:52 PM

Building Gesture Recognition Web Apps with Intel® RealSense™ SDK

by Jimmy Wei | Intel Corporation

In this article, we will show you how to build a web application that can detect various types of gestures using the Intel® RealSense™ SDK and front facing (F200) camera.

Editorial Note

This article is in the Product Showcase section for our sponsors at CodeProject. These reviews are intended to provide you with information on products and services that we consider useful and of value to developers.


In this article, we will show you how to build a web application that can detect various types of gestures using the Intel® RealSense™ SDK and front facing (F200) camera. Gesture recognition will give users of your application another innovative means for navigation and interface interaction. You will need basic knowledge of HTML, JavaScript*, and jQuery in order to complete this tutorial.

Hardware Requirements

  • 4th generation (or later) Intel® CoreTM processor
  • 150 MB free hard disk space
  • 4 GB RAM
  • Intel® RealSense™ camera (F200)
  • Available USB3 port for the Intel RealSense camera (or dedicated connection for integrated camera)

Software Requirements

  • Microsoft Windows* 8.1 (or later)
  • A web browser such as Microsoft Internet Explorer*, Mozilla Firefox*, or Google Chrome*
  • The Intel RealSense Depth Camera Manager (DCM) for the F200, which includes the camera driver and service, and the Intel RealSense SDK. Go here to download components.
  • The Intel RealSense SDK Web Runtime. Currently, the best way to get this is to run one of the SDK’s JavaScript samples, which can be found in the SDK install directory. The default location is C:\Program Files (x86)\Intel\RSSDK\framework\JavaScript. The sample will detect that the web runtime is not installed, and prompt you to install it.


Please make sure that you complete the following steps before proceeding further.

  1. Plug your F200 camera into a USB3 port on your computer system.
  2. Install the DCM.
  3. Install the SDK.
  4. Install the Web Runtime.
  5. After installing the components, navigate to the location where you installed the SDK (we’ll use the default path):

C:\Program Files (x86)\Intel\RSSDK\framework\common\JavaScript

You should see a file called realsense.js. Please copy that file into a separate folder. We will be using it in this tutorial. For more information on deploying JavaScript applications using the SDK, click here.

Code Overview

For this tutorial, we will be using the sample code outlined below. This simple web application displays the names of gestures as they are detected by the camera. Please copy the entire code below into a new HTML file and save this file into the same folder as the realsense.js file. Alternatively, you can download the complete web application by clicking on the code sample link at the top of the article. We will go over the code in detail in the next section.

The Intel RealSense SDK relies heavily on the Promise object. If you are not familiar with JavaScript promises, please refer to this documentation for a quick overview and an API reference.

Refer to the Intel RealSense SDK documentation to find more detail about SDK functions referenced in this code sample. The SDK is online, as well as in the doc directory of your local SDK install.

    <title>RealSense Sample Gesture Detection App</title>
    <script type="text/javascript" src=""></script>
    <script type="text/javascript" src=""></script>
    <script type="text/javascript" src=""></script>
    <script type="text/javascript" src="realsense.js"></script>
        var sense, hand_module, hand_config
        var rs = intel.realsense

        function DetectPlatform() {
            rs.SenseManager.detectPlatform(['hand'], ['front']).then(function (info) {
                if (info.nextStep == 'ready') {
                else if (info.nextStep == 'unsupported') {
                    $('#info-area').append('<b> Platform is not supported for Intel(R) RealSense(TM) SDK: </b>')
                    $('#info-area').append('<b> either you are missing the required camera, or your OS and browser are not supported </b>')
                else if (info.nextStep == 'driver') {
                    $('#info-area').append('<b> Please update your camera driver from your computer manufacturer </b>')
                else if (info.nextStep == 'runtime') {
                    $('#info-area').append('<b> Please download the latest web runtime to run this app, located <a href="">here</a> </b>')
            }).catch(function (error) {
                $('#info-area').append('Error detected: ' + JSON.stringify(error))

        function Start() {
            rs.SenseManager.createInstance().then(function (instance) {
                sense = instance
                return rs.hand.HandModule.activate(sense)
            }).then(function (instance) {
                hand_module = instance
                hand_module.onFrameProcessed = onHandData
                return sense.init()
            }).then(function (result) {
                return hand_module.createActiveConfiguration()
            }).then(function (result) {
                hand_config = result
                hand_config.allAlerts = true
                hand_config.allGestures = true
                return hand_config.applyChanges()
            }).then(function (result) {
                return hand_config.release()
            }).then(function (result) {
                return sense.streamFrames()
            }).catch(function (error) {

        function onHandData(sender, data) {
            for (g = 0; g < data.firedGestureData.length; g++) {
                $('#gesture-area').append(data.firedGestureData[g].name + '<br />')


    <div id="info-area"></div>
    <div id="gesture-area"></div>

The screenshot below is what the app looks like when you run it and present different types of gestures to the camera.


Detecting the Intel® RealSense™ Camera on the System

Before we can use the camera for gesture detection, we need to see if our system is ready for capture. We use the detectPlatform function for this purpose. The function takes two parameters: the first is an array of runtimes that the application will use and the second is an array of cameras that the application will work with. We pass in ['hand'] as the first argument since we will be working with just the hand module and ['front'] as the second argument since we will only be using the F200 camera.

The function returns an info object with a nextStep property. Depending on the value that we get, we can determine if the camera is ready for usage. If it is, we call the Start function to begin gesture detection. Otherwise, we output an appropriate message based on the string we receive back from the platform.

If there were any errors during this process, we output them to the screen.

rs.SenseManager.detectPlatform(['hand'], ['front']).then(function (info) {
    if (info.nextStep == 'ready') {
    else if (info.nextStep == 'unsupported') {
        $('#info-area').append('<b> Platform is not supported for Intel(R) RealSense(TM) SDK: </b>')
        $('#info-area').append('<b> either you are missing the required camera, or your OS and browser are not supported </b>')
    else if (info.nextStep == 'driver') {
        $('#info-area').append('<b> Please update your camera driver from your computer manufacturer </b>')
    else if (info.nextStep == 'runtime') {
        $('#info-area').append('<b> Please download the latest web runtime to run this app, located <a href="">here</a> </b>')
}).catch(function (error) {
    $('#info-area').append('Error detected: ' + JSON.stringify(error))

Setting Up the Camera for Gesture Detection

rs.SenseManager.createInstance().then(function (instance) {
    sense = instance
    return rs.hand.HandModule.activate(sense)

You need to follow a sequence of steps to set up the camera for gesture detection. First, create a new SenseManager instance and enable the camera to detect hand movement. The SenseManager is used to manage the camera pipeline.

To do this, we will call the createInstance function. The callback returns the instance that we just created, which we store in the sense variable for future use. We then call the activate function to enable the hand module, which we will need for gesture detection.

.then(function (instance) {
    hand_module = instance
    hand_module.onFrameProcessed = onHandData
    return sense.init()

Next, we need to save the instance of the hand tracking module that was returned by the activate function into the hand_module variable. We then assign the onFrameProcessed property to our own custom callback function called onHandData whenever new frame data is available. Finally, we initialize the camera pipeline for processing by calling the Init function

.then(function (result) {
    return hand_module.createActiveConfiguration()

To configure the hand tracking module for gesture detection, you have to create an active configuration instance. This is done by calling the createActiveConfiguration function.

.then(function (result) {
    hand_config = result
    hand_config.allAlerts = true
    hand_config.allGestures = true
    return hand_config.applyChanges()

The CreateActiveConfiguration function returns the instance of the configuration, which is stored in the hand_config variable. We then set the allAlerts property to true to enable all alert notifications. The alert notifications give us additional details such as the frame number, timestamp, and the hand identifier that triggered the alert. We also set the allGestures property to true, which is needed for gesture detection. Finally, we call the applyChanges function to apply all parameter changes to the hand tracking module. This makes the current configuration active.

.then(function (result) {
    return hand_config.release()

We then call the release function to release the configuration.

.then(function (result) {
    return sense.streamFrames()
}).catch(function (error) {

Finally, the next sequence of functions sets up the camera to start streaming frames. When new frame data is available, the onHandData function will be invoked. If any errors were detected, we catch them and log all errors to the console.

The onHandData function

function onHandData(sender, data) {
    for (g = 0; g < data.firedGestureData.length; g++) {
        $('#gesture-area').append(data.firedGestureData[g].name + '<br />')

The onHandData callback is the main function where we check to see if a gesture has been detected. Remember this function is called whenever there is new hand data and that some of the data may or may not be gesture-related data. The function takes in two parameters, but we use only the data parameter. If gesture data is available, we iterate through the firedGestureData array and get the gesture name from the name property. Finally, we output the gesture name into the gesture-area div, which displays the gesture name on the web page.

Note that the camera remains on and continues to capture gesture data until you close the web page.


In this tutorial, we used the Intel RealSense SDK to create a simple web application that uses the F200 camera for gesture detection. We learned how to detect whether a camera is available on the system and how to set up the camera for gesture recognition. You could modify this example by checking for a specific gesture type (e.g., thumbsup or thumbsdown) using if statements and then writing code to handle that specific use case.

About the Author

Jimmy Wei is a software engineer and has been with Intel Corporation for over 9 years.

Related Resources


  • No license (express or implied, by estoppel or otherwise) to any intellectual property rights is granted by this document.Intel disclaims all express and implied warranties, including without limitation, the implied warranties of merchantability, fitness for a particular purpose, and non-infringement, as well as any warranty rising from course of performance, course of dealing, or usage in trade.


This article, along with any associated source code and files, is licensed under The Code Project Open License (CPOL)


Picture of System Administrator

Intrapreneur (Intrapreneurship)

by System Administrator - Thursday, 23 April 2015, 7:54 PM

Intrapreneur (Intrapreneurship)

Picture of System Administrator

ISO 9001:2015​

by System Administrator - Tuesday, 17 November 2015, 6:27 PM

Hablemos sobre la ISO 9001:2015​


Nigel Croft, Presidente del subcomité ISO que desarrolló y revisó la norma: "[la ISO 9001:2015] es un proceso evolutivo más que revolucionario. [...] Estamos trayendo la ISO 9001 firmemente al siglo XXI. Las versiones anteriores de la ISO 9001 eran muy prescriptivas, con muchos requisitos de procedimientos documentados y registros. En las ediciones 2000 y 2008, nos hemos centrado más en la gestión de procesos y menos en la documentación. [...] Ahora hemos ido un paso más allá, y la ISO 9001:2015 es menos prescriptiva que su predecesor, centrándose en el rendimiento. Hemos logrado esto combinando el enfoque de procesos con el pensamiento basado en riesgos, y empleando el ciclo PHVA "Planificar-Hacer-Verificar-Actuar" (Plan-Do-Check-Act) en todos los niveles en la organización."

¿Por qué ha sido revisada la ISO 9001?

Las Normas de Sistemas de Gestión ISO son revisadas en cuanto a efectividad y sostenibilidad aproximadamente cada 5 a 8 años. 

La ISO 9001:2015 reemplaza las ediciones anteriores, los entes certificadores tendrán hasta tres años para migrar los certificados a la nueva versión. 

La ISO 9000, que establece los conceptos y el lenguaje utilizado a lo largo de la familia de normas ISO 9000, también ha sido revisada y una nueva edición está disponible.

La Norma ha sido revisada con los objetivos de:

  • Mayor importancia del servicio.
  • Mayores expectativas de las partes interesadas.
  • Mejor integración con otros Estándares de Sistemas de Gestión.
  • Adaptarse a complejas cadenas de suministros.
  • Globalización. 

También ha habido un cambio en la estructura de la norma. La ISO 9001:2015 y todo sistema de gestión futuro, seguirán la nueva estructura común de normas del sistema de gestión. Esto ayudará a las organizaciones con los sistemas integrados de gestión.

"Teniendo en cuenta que las organizaciones de hoy tienen varias normas de gestión implantadas, hemos diseñado la versión 2015 para integrarse fácilmente con otros sistemas de gestión. La nueva versión también ofrece una sólida base para las normas del sector de calidad (industria automotriz, aeroespacial, médica, etc.) y toma en cuenta las necesidades de los reguladores." Nigel Croft, Presidente del subcomité ISO.

Resumen de los principales cambios de la ISO 9001

  • La norma hace hincapié en el enfoque de proceso.
  • La norma solicita un pensamiento basado en riesgos.
  • Existe mayor flexibilidad en la documentación.
  • La norma se focaliza más en los actores.

Esta versión de la norma se basa en Siete Principios de Gestión de Calidad: 

La norma ISO 9001:2008 se basa en principios de calidad que son utilizados generalmente por la Alta Gerencia como una guía para la mejora de la calidad. Están definidos en la ISO 9000 y la ISO 9004. Sin embargo, estos principios han sido modificados en la versión 9001:2015. La nueva versión de la norma se basa en siete principios, los cuales incluyen:  

  1. Enfoque al cliente.
  2. Liderazgo.
  3. Compromiso de las personas.
  4. Enfoque en proceso.
  5. Mejora (fusión de anteriores: enfoques de sistema y de proceso). 
  6. Toma de decisiones basada en la evidencia. 
  7. Gestión de las relaciones.

Los dos primeros principios, enfoque al cliente y liderazgo, no han cambiado desde la versión 2008. El tercer principio, la participación de las personas, ha sido renombrado en Compromiso de las personas. El cuarto principio enfoque de procesos se mantiene igual. El quinto ha sido integrado al cuarto por lo que el número de principios pasa a siete.

El enfoque de procesos es usado en la versión 2008 de la ISO 9001, y se utiliza para desarrollar, implementar y mejorar la eficacia de un sistema de gestión de calidad. Sin embargo, la norma ISO 9001:2015 proporciona una perspectiva adicional en el enfoque de procesos, y aclara el porqué es esencial adoptarlo en cada proceso gerencial de la organización. Las organizaciones ahora están obligadas a determinar cada proceso necesario para el Sistema de Gestión de Calidad y mantener documentada la información necesaria para apoyar la operación de dichos procesos.

El Pensamiento basado en riesgos es también uno de los principales cambios en la nueva versión de la ISO 9001. El estándar no incluye el concepto de acción preventiva, pero hay otras dos series de requisitos que cubren el concepto y que incluyen requisitos sobre la gestión de riesgo.

La flexibilidad de la documentación es otro cambio importante en la Norma ISO 2001:2015. Los documentos de términos y registros han sido reemplazados por  "información documentada". No hay requisitos específicos que determinen tener documentados los procedimientos, sin embargo los procesos deberían ser documentados para demostrar conformidad.

Focalizarse más en los actores es otro cambio en la norma ISO 9001 2015. La nueva versión de la norma a menudo plantea el tema de las partes interesadas, que en este contexto se refiere a las partes interesadas, tanto internas como externas de la organización, con intereses en el proceso de gestión de la calidad. La norma requiere que las organizaciones se centren no sólo en requisitos de cliente, sino también en los requerimientos de otros actores o partes interesadas tales como empleados, proveedores y así sucesivamente, que puedan afectar el sistema de gestión de calidad.

La nueva norma tiene 10 cláusulas:

  • Alcance.
  • Referencias de normativa.
  • Términos y definiciones.
  • Contexto de la organización y del liderazgo.
  • Calendario para el Sistema de Gestión de la Calidad.
  • Soporte.
  • Operación.
  • Evaluación de desempeño. 
  • Mejora. 

ISO 9001:2015 - Just published!

by Maria Lazarte

The latest edition of ISO 9001, ISO's flagship quality management systems standard, has just been published. This concludes over three years of revision work by experts from nearly 95 participating and observing countries to bring the standard up to date with modern needs.

With over 1.1 million certificates issued worldwide, ISO 9001 helps organizations demonstrate to customers that they can offer products and services of consistently good quality. It also acts as a tool to streamline their processes and make them more efficient at what they do. Acting ISO Secretary-General Kevin McKinley explains: “ISO 9001 allows organizations to adapt to a changing world. It enhances an organization’s ability to satisfy its customers and provides a coherent foundation for growth and sustained success.”

The 2015 edition features important changes, which Nigel Croft, Chair of the ISO subcommittee that developed and revised the standard, refers to as an “evolutionary rather than a revolutionary” process. “We are just bringing ISO 9001 firmly into the 21st century. The earlier versions of ISO 9001 were quite prescriptive, with many requirements for documented procedures and records. In the 2000 and 2008 editions, we focused more on managing processes, and less on documentation.

“We have now gone a step further, and ISO 9001:2015 is even less prescriptive than its predecessor, focusing instead on performance. We have achieved this by combining the process approach with risk-based thinking, and employing the Plan-Do-Check-Act cycle at all levels in the organization.

“Knowing that today’s organizations will have several management standards in place, we have designed the 2015 version to be easily integrated with other management systems. The new version also provides a solid base for sector-quality standards (automotive, aerospace, medical industries, etc.), and takes into account the needs of regulators.”

As the much anticipated standard comes into being, Kevin McKinley concludes, “The world has changed, and this revision was needed to reflect this. Technology is driving increased expectations from customers and businesses. Barriers to trade have dropped due to lower tariffs, but also because of strategic instruments like International Standards. We are seeing a trend towards more complex global supply chains that demand integrated action. So organizations need to perform in new ways, and our quality management standards need to keep up with these expectations. I am confident that the 2015 edition of ISO 9001 can help them achieve this.”

The standard was developed by ISO/TC 176/SC 2, whose secretariat is held by BSI, ISO member for the UK. “This is a very important committee for ISO,” says Kevin, “one that has led the way in terms of global relevance, impact and utilization. I thank the experts for their hard effort.”

ISO 9001:2015 replaces previous editions and certification bodies will have up to three years to migrate certificates to the new version.

ISO 9000, which lays down the concepts and language used throughout the ISO 9000 family of standards, has also been revised and a new edition is available.

Learn all about the new ISO 9001:2015 in our five minute video:

The world’s quality management systems standard, ISO 9001, has been revised. Here, Kevin McKinley, Acting ISO Secretary-General, and Nigel Croft, Chair of the subcommittee that revised ISO 9001, tell you everything you need to know about the new edition of this landmark standard that enhances an organization’s ability to satisfy its customers and provides a coherent foundation for growth and sustained success.
La Norme internationale ISO 9001 sur les systèmes de management de la qualité vient d’être révisée. Dans cette vidéo, Kevin McKinley, Secrétaire général par intérim de l’ISO, et Nigel Croft, Président du sous-comité en charge de la révision d’ISO 9001, vous disent tout ce qu’il faut savoir sur la nouvelle édition de cette norme de référence qui améliore la capacité d’une organisation à satisfaire ses clients et offre des bases cohérentes pour une croissance et une réussite durables.


Picture of System Administrator

IT Chargeback | IT Showback

by System Administrator - Wednesday, 18 January 2017, 6:32 PM

IT chargeback system

IT chargeback is an accounting strategy that applies the costs of IT services, hardware or software to the business unit in which they are used. This system contrasts with traditional IT accounting models in which a centralized department bears all of the IT costs in an organization and those costs are treated simply as corporate overhead. 

IT chargeback systems are sometimes called "responsibility accounting" because this sort of accounting demonstrates which departments or individuals are responsible for significant expenses. Such systems are intended to shift responsibility to users and encourage them to treat IT services as they would any other utility, which in turn encourages moderate use. 

Reporting systems that leverage IT chargeback can help administrators to clearly see what factors are driving costs and to budget accordingly. Such a system provides end users with more transparency into which business decisions are creating expenses and helps management identify how to achieve greater profitability. The cost of legacy systems, redundancies or expensive proprietary technologies also become clear, providing IT staff with an effective rationale for upgrades that are intended to improve utilization or reduce energy use and administration time. 

Since chargeback depends on a variety of IT metrics to provide equitable distribution of costs, a balance must always be struck between the precision of the system and the difficulty of collecting the necessary data. Complex IT chargeback systems can depend upon detailed line item accounting for each IT-related expense, including which business unit incurred it and whether it was for softwarehardware or services. Since single line item expenditures can sometimes be substantial and can be shared by multiple business units (a mainframe purchase, for example), usage data from the IT department is also needed to help split out these costs in an equitable manner. 

Simple IT chargeback systems are little more than straight allocations of IT costs based on readily available information, such as user counts, application counts, or even subjective estimation. At a lesser degree of complexity, an organization trades some of the effectiveness of IT chargeback for a smaller burden, in terms of time and money required to perform the chargeback. 

This shift turns internal IT systems into service providers that may be managed independently of the organization at large. An IT chargeback system provides useful metrics that can be compared against the costs of outsourcing such services to a third party. IT administrators and CIOs, for instance, could compare the effectiveness of internal departments at provisioning networks, providing storage capacity, making network data transfers or maintaining Web application uptime. There are other uses for the system as well. A CIO could take the results of a past quarter's IT chargeback to a CEO and use those numbers to assess whether the revenue created by taking advantage of business opportunities justifies the expense.

Despite such advantages, however, some CIOs find the internal politics associated with implementing and maintaining IT chargeback systems to be daunting, especially when combined with administrative costs and substantial accounting challenges. Nevertheless, IT chargeback systems have attracted considerable interest as energy costs and usage have soared in recent years. Increased adoption of private cloud infrastructures, software-as-a-service (SaaS) and on-demand service-oriented architectures (SOA) at many enterprises could make measuring usage and allocating costs easier than ever before as IT services are treated as a utility.


Learn more about IT:

Related Terms

IT showback

An IT showback system is a method of tracking data center utilization rates of an organization’s business units or end users. IT showback is similar to IT chargeback, but the metrics are for informational purposes only, and no one is billed.

IT showback is gaining popularity among companies with virtual or cloud-based infrastructures, in which resource utilization can be granularly tracked with the proper software. An IT showback system can reduce the accounting and political problems associated with IT chargeback (e.g., setting rates for resources), while promoting a culture of cost awareness in regards to IT assets. 

"With a showback system, the centralized IT organization compares and contrasts different groups within the business and looks for units operating well outside the norm in their resource usage -- and finds out why."Clive Longbottom

Showback the value of your data storage expertise
Mike Matchett says that though showback projects are challenging, these cost-benefit analyses can show business leaders the real value of IT.

Showback reduces costs and exposes resource hogs on your IT platform
Unlike a chargeback system, showback helps show the business where the costs of its IT platform are viable, and helps to optimize resources across business units.

Showback vs chargeback: Showback new resource analysis tool of choice
In a showback vs. chargeback comparison, showback is winning more fans than the more complex chargeback to help businesses plan projects, and track usage of storage, IT services, hardware and software.

Chargeback vs. showback: Which method is best for you?
Chargeback and showback are two methods that allow IT shops to recover costs, but these strategies present political and technical challenges.

Chargeback tactics to avoid an IT money pit
Price transparency and clear IT service portfolios are essential elements of successful chargeback approaches. Here's how to do chargeback, or showback, right.

Showback vs chargeback: Showback new resource analysis tool of choice

To Chargeback or Showback – That Is the Question


Related Terms

Picture of System Administrator

ITIL (Information Technology Infrastructure Library)

by System Administrator - Thursday, 13 April 2017, 3:36 PM

ITIL - Information Technology Infrastructure Library

Fuente: Wikipedia

La Biblioteca de Infraestructura de Tecnologías de Información (o ITIL, por sus siglas en inglés) es un conjunto de conceptos y buenas prácticas usadas para la gestión de servicios de tecnologías de la información, el desarrollo de tecnologías de la información y las operaciones relacionadas con la misma en general. ITIL da descripciones detalladas de un extenso conjunto de procedimientos de gestión ideados para ayudar a las organizaciones a lograr calidad y eficiencia en las operaciones de TI. Estos procedimientos son independientes del proveedor y han sido desarrollados para servir como guía que abarque toda infraestructura, desarrollo y operaciones de TI.


Aunque se desarrolló durante los años 1980, ITIL no fue ampliamente adoptada hasta mediados de los años 1990. Esta mayor adopción y conocimiento ha llevado a varios estándares, incluyendo ISO/IEC 20000, que es una norma internacional cubriendo los elementos de gestión de servicios de TI de ITIL. ITIL se considera a menudo junto con otros marcos de trabajo de mejores prácticas como la Information Services Procurement Library (ISPL, ‘Biblioteca de adquisición de servicios de información’), la Application Services Library (ASL, ‘Biblioteca de servicios de aplicativos’), el método de desarrollo de sistemas dinámicos (DSDM, Dynamic Systems Development Method), el Modelo de Capacidad y Madurez (CMM/CMMI) y a menudo se relaciona con la gobernanza de tecnologías de la información mediante COBIT (Control OBjectives for Information and related Technology).

El concepto de gestión de servicios de TI, aunque relacionado con ITIL, no es idéntico: ITIL contiene una sección específicamente titulada «Gestión de Servicios de TI» (la combinación de los volúmenes de Servicio de Soporte y Prestación de Servicios, que son un ejemplo específico de un marco ITSM). Sin embargo es importante señalar que existen otros marcos parecidos. La Gestión de Servicio ITIL está actualmente integrado en el estándar ISO 20000 (anterior BS 15000).

ITIL se construye en torno a una vista basada en proceso-modelo del control y gestión de las operaciones a menudo atribuida a W. Edwards Deming. Las recomendaciones de ITIL fueron desarrolladas en los años 1980 por la Central Computer and Telecommunications Agency (CCTA) del gobierno británico como respuesta a la creciente dependencia de las tecnologías de la información y al reconocimiento de que sin prácticas estándar, los contratos de las agencias estatales y del sector privado creaban independientemente sus propias prácticas de gestión de TI y duplicaban esfuerzos dentro de sus proyectos TIC, lo que resultaba en errores comunes y mayores costes.

ITIL fue publicado como un conjunto de libros, cada uno dedicado a un área específica dentro de la Gestión de TI. Los nombres ITIL e IT Infrastructure Library (‘Biblioteca de infraestructura de TI’) son marcas registradas de la Office of Government Commerce (‘Oficina de comercio gubernamental’, OGC), que es una división del Ministerio de Hacienda del Reino Unido.

En abril de 2001 la CCTA fue integrada en la OGC, desapareciendo como organización separada.1

En diciembre de 2005, la OGC emitió un aviso de una actualización a ITIL,2 conocida comúnmente como ITIL v3, que estuvo planificada para ser publicada a finales de 2006; habiendo sido realizada en junio de 2007. Se esperaba que la publicación de ITIL versión 3 incluyera cinco libros principales, concretamente: Diseño de Servicios de TI, Introducción de los Servicios de TI, Operación de los Servicios de TI, Mejora de los Servicios de TI y Estrategias de los Servicios de TI, consolidando buena parte de las prácticas actuales de la versión 2 en torno al Ciclo de Vida de los Servicios.

Uno de los principales beneficios propugnado por los defensores de ITIL dentro de la comunidad de TI es que proporciona un vocabulario común, consistente en un glosario de términos precisamente definidos y ampliamente aceptados. Un nuevo glosario ampliado ha sido desarrollado como entregable clave de ITIL versión 3.

Otros modelos: CMMI para el desarrollo de software y s3m,3 para el mantenimiento del software


Un pin de certificación de la ITIL Foundation.


Los particulares pueden conseguir varias certificaciones oficiales ITIL. Los estándares de calificación ITIL son gestionados por la ITIL Certification Management Board (ICMB) que agrupa a la OGC, a itSMF International y a los dos Institutos Examinadores existentes: EXIN (con sede en los Países Bajos) e ISEB (con sede en el Reino Unido).

Existen tres niveles de certificación ITIL para profesionales:

  1. Foundation Certificate (Certificado Básico): acredita un conocimiento básico de ITIL en gestión de servicios de tecnologías de la información y la comprensión de la terminología propia de ITIL. Está destinado a aquellas personas que deseen conocer las buenas prácticas especificadas en ITIL.
  2. Practitioner's Certificate (Certificado de Responsable): destinado a quienes tienen responsabilidad en el diseño de procesos de administración de departamentos de tecnologías de la información y en la planificación de las actividades asociadas a los procesos.
  3. Manager's Certificate (Certificado de Director): garantiza que quien lo posee dispone de profundos conocimientos en todas las materias relacionadas con la administración de departamentos de tecnologías de la información, y lo habilita para dirigir la implantación de soluciones basadas en ITIL.

No es posible certificar una organización o sistema de gestión como «conforme a ITIL», pero una organización que haya implementado las guías de ITIL sobre Gestión de los Servicios de TI puede lograr certificarse bajo la ISO/IEC 20000.

La versión 3 de ITIL, que apareció en junio de 2007, cambió ligeramente el esquema de Certificaciones, existiendo certificaciones puentes, se definen 3 niveles:

  1. Basic Level (Equivalente a ITIL Foundation en v3)
  2. Management and Capability Level (Equivalente a los niveles Practitioner y Manager en ITIL v2)
  3. Advanced Level (nuevo en v3)
  • Qué es ITIL

Historia y precursores de ITIL

Lo que actualmente se conoce como ITIL versión 1, desarrollada bajo el auspicio de la CCTA, se tituló Government Information Technology Infrastructure Method (‘Método de Infraestructura de la Tecnología de Información del Gobierno’, GITM) y durante varios años terminó expandiéndose hasta unos 31 libros dentro de un proyecto inicialmente dirigido por Peter Skinner y John Stewart. Las publicaciones fueron retituladas principalmente como resultado del deseo (por Roy Dibble de la CCTA) de que fueran vistas como una guía y no como un método formal, y como resultado del creciente interés que había fuera del gobierno británico.

Muchos de los conceptos principales de gestión de servicios no surgieron dentro del proyecto inicial de la CCTA para desarrollar ITIL. IBM afirma que sus Yellow Books (A Management System for the Information Business, ‘Un sistema de gestión para el negocio de la información’)4 5 fueron precursores clave. Según IBM:

A principios de los años 1980, IBM documentó los conceptos originales de Gestión de Sistemas en una serie de cuatro volúmenes titulada A Management System for Information Systems (sic). Estos ampliamente aceptados yellow books [...] fueron aportaciones claves para el conjunto originales de libros de ITIL.

Otras publicaciones de IBM y comentarios de los autores de ITIL aclaran que los yellow books fueron cruciales para el desarrollo del Servicio de Soporte pero que el volumen de Entrega de Servicios no tomó prestado de ellos hasta tales extremos.

Críticas a ITIL

ITIL ha recibido críticas de varios frentes. Entre ellas:

  • El hecho de que muchos defensores de ITIL parecen creer que es un marco holístico y completo para el gobierno de TI.
  • Su tendencia a convertirla en una religión.

Como señala Jan van Bon (autor y editor de muchas publicaciones de Gestión de Servicios de TI):

Hay mucha confusión sobre ITIL, procedente de todo tipo de malentendidos sobre su naturaleza. ITIL, como afirma la OGC, es un conjunto de buenas prácticas. La OGC no afirma que dichas mejores prácticas describan procesos puros, ni tampoco que ITIL sea un marco diseñado como un modelo coherente. Eso es lo que la mayoría de sus usuarios hacen de ella, probablemente porque tienen una gran necesidad de dicho modelo.6

El columnista CIO Magazine Dean Meyer también ha expuesto algunos puntos de vista cautelosos sobre ITIL,7 incluyendo cinco trampas típicas tales como «convertirse en esclavo de definiciones desactualizadas» y «dejar que ITIL se convierta en religión». Como Meyer señala, ITIL «no describe el abanico completo de procesos necesarios para ser líderes. Se centra en [...] gestionar servicios actuales.»

La calidad de los volúmenes de la biblioteca se considera desigual. Por ejemplo, van Herwaarden y Grift señalan que «la consistencia que caracterizaba los procesos de soporte al servicio [...] se pierde en gran medida en los libros de entrega de servicio.»8

Todas estas manifestaciones acerca de ITIL provienen de compañías que en un momento dado han logrado entender que `para alcanzar objetivos de manera clara es necesario realizar ciertas prácticas que cumplan con ese objetivo y los resultados demostrados son benéficos para quien los desarrolla y para quien hace uso de este entorno.

Visión general de la Biblioteca de Infraestructura de TI version 2 (ITIL v2)

La biblioteca de infraestructura de TI (ITIL) toma este nombre por tener su origen en un conjunto de libros, cada uno dedicado a una práctica específica dentro de la gestión de TI. Tras la publicación inicial de estos libros, su número creció rápidamente (dentro la versión 1) hasta unos 30 libros. Para hacer a ITIL más accesible (y menos costosa) a aquellos que deseen explorarla, uno de los objetivos del proyecto de actualización ITIL versión 2 fue agrupar los libros según unos conjuntos lógicos destinados a tratar los procesos de administración que cada uno cubre. De esta forma, diversos aspectos de los sistemas de TIC, de las aplicaciones y del servicio se presentan en conjuntos temáticos. Actualmente existe la nueva versión ITIL v3 que fue publicada en mayo de 2007.

Aunque el tema de Gestión de Servicios (Soporte de Servicio y Provisión de Servicio) es el más ampliamente difundido e implementado, el conjunto de mejores prácticas ITIL provee un conjunto completo de prácticas que abarca no sólo los procesos y requerimientos técnicos y operacionales, sino que se relaciona con la gestión estratégica, la gestión de operaciones y la gestión financiera de una organización moderna.

Los ocho libros de ITIL y sus temas son:

Gestión de Servicios de TI,
1. Mejores prácticas para la Provisión de Servicio
2. Mejores prácticas para el Soporte de Servicio
Otras guías operativas
3. Gestión de la infraestructura de TI
4. Gestión de la seguridad
5. Perspectiva de negocio
6. Gestión de aplicaciones
7. Gestión de activos de software

Para asistir en la implementación de prácticas ITIL, se publicó un libro adicional con guías de implementación (principalmente de la Gestión de Servicios):

8. Planeando implementar la Gestión de Servicios

Adicional a los ocho libros originales, más recientemente se añadió una guía con recomendaciones para departamentos de TIC más pequeños:

9. Implementación de ITIL a pequeña escala

Soporte de Servicio

El libro de Soporte de Servicio ( Service Support , ITIL V2 ) se ocupa de asegurar que el Usuario tenga acceso a los servicios apropiados que soporten las funciones de negocio. Los temas que se tratan en el libro incluye los siguientes Procesos:

  • Gestión del Incidente.
  • Gestión del Problema.
  • Gestión de Configuración.
  • Gestión del Cambio.
  • Gestión de la Entrega.
  • Centro de Servicio al Usuario ( Función).

Provisión de Servicio

El libro de Provisión de Servicio analiza qué servicio requiere el negocio del proveedor (entendiendo como proveedor la organización interna o externa que provee el servicio de TI), para ofrecer un soporte adecuado a los Usuarios y/o Clientes de negocio. El libro cubre los siguientes temas:

  • Gestión del Nivel de Servicio
  • Gestión Financiera de Servicios TI
  • Gestión de la Capacidad
  • Gestión de la Continuidad del Servicio de TI
  • Gestión de la Disponibilidad

Ciclo de Vida del Servicio

ITIL® Foundation estructura la gestión de los servicios TI sobre el concepto de Ciclo de Vida de los Servicios. Este enfoque tiene como objetivo ofrecer una visión global de la vida de un servicio desde su diseño hasta su eventual abandono sin por ello ignorar los detalles de todos los procesos y funciones involucrados en la eficiente prestación del mismo.

En ITIL v3 reestructura el manejo de los temas para consolidar el modelo de "ciclo de vida del servicio" separando y ampliando algunos subprocesos hasta convertirlos en procesos especializados. Esta modificación responde a un enfoque empresarial para grandes corporaciones que utilizan ampliamente ITIL en sus operaciones y aspira a consolidar el modelo para conseguir aún mejores resultados. Es por ello que los especialistas recomiendan que empresas emergentes o medianas no utilicen ITIL v3 si no cuentan con un modelo ITIL consolidado y aspiran a una expansión a muy largo plazo. El Ciclo de Vida del Servicio consta de cinco fases también llamadas disciplinas, correspondientes a los nuevos libros de ITIL®:

1. Estrategia del Servicio
2. Diseño del Servicio
3. Transición del Servicio
4. Operación del Servicio
5. Mejora Continua del Servicio


Estrategia del Servicio

Se enfoca en el estudio de mercado y posibilidades mediante la búsqueda de servicios innovadores que satisfagan al cliente tomando en cuenta la real factibilidad de su puesta en marcha. Así mismo se analizan posibles mejoras para servicios ya existentes. Se verifican los contratos con base en las nuevas ofertas de proveedores antiguos y posibles nuevos proveedores, lo que incluye la renovación o revocación de los contratos vigentes.


  1. Gestión Financiera
  2. Gestión del Portafolio
  3. Gestión de la Demanda

Cambios en la versión 2011

Los conceptos dentro de la publicación se han aclarado, sin necesidad de cambiar el mensaje general. La publicación actualizada incluye una orientación más práctica y con más ejemplos.

  • Financial Management for IT services (Gestión Financiera de TI)

La gestión financiera de TI ha ampliado para incluir algunos de los elementos clave de la ITIL publicaciones anteriores que habían sido excluidos en la edición 2007 de la Estrategia del Servicio – tales como contabilidad, elaboración de presupuestos y de cargos.

  • Business Relationship Management (Gestión de Relaciones del Negocio)

Este es un nuevo proceso que se asemeja al existente en la ISO 20.000. Se hace una diferenciación para los distintos proveedores de servicio: tipo I, II y III . Se brinda una explicación diferente para cada tipo de proveedor.

  • Governance (Gobierno)

Ahora hay más detalles sobre el concepto de Gobierno, incluida una definición más completa de su significado, la diferencia entre el gobierno y gestión, un marco de gobierno, y cómo la gestión del servicio se relaciona con el gobierno.

  • Cloud Computing (Computación en la nube)

Se ha incluido en qué forma la gestión de servicios se ve afectada por la aparición de la computación en la nube. Se agregó un nuevo apéndice que cubre específicamente la estrategia de servicio y la nube: características, tipos, tipos de servicio, y los componentes de la arquitectura de nube.9

Diseño del Servicio

Una vez identificado un posible servicio el siguiente paso consiste en analizar su viabilidad. Para ello se toman factores tales como infraestructura disponible, capacitación del personal y se planifican aspectos como seguridad y prevención ante desastres. Para la puesta en marcha se toman en consideración la reasignación de cargos (contratación, despidos, ascensos, jubilaciones, etc), la infraestructura y software a implementar.


  1. Gestión del Catálogo de Servicios
  2. Gestión de Niveles de Servicios
  3. Gestión de la Disponibilidad
  4. Gestión de la Capacidad
  5. Gestión de la Continuidad de los Servicios de TI
  6. Gestión de Proveedores
  7. Gestión de la Seguridad de Información
  8. Coordinación del Diseño (nuevo en la versión 2011)

Cambios en la versión 2011

Las principales modificaciones del libro de ITIL V3 Diseño del Servicio en su versión 2011 incluye: un cambio a los denominados 5 aspectos del diseño y primordialmente la inclusión de un nuevo proceso de Coordinación del Diseño. De esta manera esta fase incluye ahora 8 procesos, en lugar de 7.

Nuevo Proceso ITIL V3 2011: Coordinación del Diseño (Design Coordination Process)

Se adicionó este proceso para hacer más claro el flujo de actividades en el ciclo de vida del diseño. El propósito del proceso de Coordinación del Diseño es garantizar que las metas y los objetivos de la etapa de diseño del servicio entregando y manteniendo un punto único de coordinación y control de todas las actividades y procesos dentro de esta etapa del ciclo de vida de servicio. Las salidas del proceso de coordinación del diseño son potencialmente:10

  • Diseño de servicios integrado y consistente a través del SDP (paquete de diseño del servicio)
  • Revisión de la arquitectura empresarial
  • Revisión del sistema de gestión
  • Revisión de las métricas y métodos de medición
  • Revisión de procesos
  • Actualización del Portafolio de Servicios
  • Actualización de los Registros de Cambios

Transición del Servicio

Antes de poner en marcha el servicio se deben realizar pruebas. Para ello se analiza la información disponible acerca del nivel real de capacitación de los usuarios, estado de la infraestructura, recursos IT disponibles, entre otros. Luego se prepara un escenario para realizar pruebas; se replican las bases de datos, se preparan planes de rollback (reversión) y se realizan las pruebas. Luego de ello se limpia el escenario hasta el punto de partida y se analizan los resultados, de los cuales dependerá la implementación del servicio. En la evaluación se comparan las expectativas con los resultados reales.


  1. Gestión de la Configuración y Activos
  2. Gestión del Cambio
  3. Gestión del Conocimiento
  4. Planificación y Apoyo a la Transición
  5. Gestión de Release y Despliegue
  6. Gestión Validación y Pruebas
  7. Evaluación (Evaluación del cambio)

Cambios en la versión 2011

En la edición ITIL V3 2011 del libro de Transición del Servicio, se realizaron modificaciones y aclaraciones, a efectos de mejorar el entendimiento de los conceptos.

Se aclaró la estructura , el contenido y las relaciones entre el Sistema de Gestión de Configuraciones (CMS) y el Sistema de Gestión del Conocimiento del Servicio (SKMS) para hacer más entendibles los conceptos.

Se incorporó un nuevo contenido relacionado con la forma que debe ser usado un Requerimiento de Cambio (RFC).

El proceso de Evaluación (que no se ve en fundamentos sino en el Intermediate RCV) fue renombrado como Evaluación del cambio. Se modificó su propósito y alcance, a efectos de clarificar cuando debe ser usado.

El proceso de Gestión de Activos y Configuraciones del Servicio tiene información adicional y se mejoraron los flujos de interacción con otros procesos, incluidos Gestión de Cambio, Gestión de Versiones y Entrega, y Evaluación del Cambio.

Por último se mejoraron las descripciones de los Elementos de Configuración (CI) , Sistema de Gestión de Configuraciones (CMS) y el Sistema de Gestión del Conocimiento del Servicio (SKMS)11

Operación del Servicio

En este punto se monitoriza activa y pasivamente el funcionamiento del servicio, se registran eventos, incidencias, problemas, peticiones y accesos al servicio. La percepción que el cliente y los usuarios tenga de los servicios adquiridos está condicionada por la última instancia fase en la cual se ven involucrados todas las partes de la organización. En todas las otras fases del ciclo de vida, como último objeto es medir y verificar que los servicios han aportado valor a la organización, con los niveles de ANS acordados. Es primordial la entrega a satisfacción del cliente del servicio con calidad de acuerdo a lo acordado.


  1. Gestión de Incidentes
  2. Gestión de Problemas
  3. Cumplimiento de Solicitudes
  4. Gestión de Eventos
  5. Gestión de Accesos

Mejora Continua del Servicio

Se utilizan herramientas de medición y feedback para documentar la información referente al funcionamiento del servicio, los resultados obtenidos, problemas ocasionados, soluciones implementadas, etc. Para ello se debe verificar el nivel de conocimiento de los usuarios respecto al nuevo servicio, fomentar el registro e investigación referentes al servicio y disponer de la información al resto de los usuarios.


ITIL v3 Foundation. (s.f.).

  1. Office of Government Commerce (Reino Unido). CCTA y OGC. Recuperado el 5 de mayo de 2005.
  2. Office of Government Commerce. ITIL Refresh Statement. Recuperada el 13 de febrero de 2006.
  3. A April A Abran (2008). «Software Maintenance Management - evaluation and continuous improvement» (HTML). Consultado el 16 de julio de 2008.
  4. IBM (1980). A Management System for the Information Business. White Plains, Nueva York: IBM.
  5. Van Schaik, E. A. (1985). A Management system for the Information Business. Englewood Cliffs, NJ, Prentice-Hall, Inc. ISBN 0-13-549965-8
  6. van Bon, J., ed. (2002). The guide to IT service management. Addison Wesley. ISBN 0-201-73792-2.
  7. Meyer, Dean, 2005. «Beneath the Buzz: ITIL»CIO Magazine, 31 de marzo de 2005
  8. Van Herwaarden, H. y F. Grift (2002). "IPW(tm) and the IPW Stadia Model(tm) (IPWSM)". The guide to IT service management. J. Van Bon. Londres, Addison-Wesley: 97-115.
  9. Actualización ITIL V3 2011: Estrategia del ServicioBITCompany, 9 de octubre de 2011.
  10. Actualización ITIL V3 2011: Diseño del ServicioBITCompany, 28 de octubre de 2011.
  11. Actualización ITIL V3 2011: Transición del ServicioBITCompany, 28 de octubre de 2011.

Enlaces externos

Si desea conocer más sobre ITIL v3 y el ciclo de vida del servicio puede consultar los siguientes vídeos de referencia:

Nombre del videoLinkPrioridad
¿Qué es ITIL? 1
¿Qué es ITIL?, 5 beneficios 2
Video ITIL v3 3
ITIL V3 Estrategia del Servicio 4
ITIL V3: Diseño del Servicio 5
ITIL Transición del Servicio 6
ITIL - Gestión de la Operación 7
Mejoramiento continuo del servicio ITIL 8
Catálogo de servicios ITIL v3 9
Que es un SLA 10

ITIL (Information Technology Infrastructure Library)

Posted by: Margaret Rouse

The ITIL (Information Technology Infrastructure Library) framework is designed to standardize the selection, planning, delivery and support of IT services to a business. The goal is to improve efficiency and achieve predictable service levels. The ITIL framework enables IT to be a business service partner, rather than just back-end support. ITIL guidelines and best practices align IT actions and expenses to business needs and change them as the business grows or shifts direction.

ITIL traces its roots back to the 1980s as data centers began decentralizing and adopting more distributed or geographically diverse architectures. This flexibility led to unwanted differences in processes and deployments, creating inconsistent or suboptimal performance. The United Kingdom's government recognized the importance of perceiving IT as a service and then applying consistent practices across the entire IT service lifecycle, and initiated ITIL.

ITIL encompasses a framework of five core publications or ITIL books, which are periodically reviewed and updated as technologies change. Each book collects best practices for each major phase of the IT service lifecycle. ITIL Service Strategy explains business goals and customer requirements. ITIL Service Design shows how to move strategies into plans that help the business. ITIL Service Transition shows how to introduce services into the environment. ITIL Service Operation explains how to manage the IT services. ITIL Continual Service Improvement helps adopters evaluate and plan large and small improvements to IT services.

ITIL-based IT infrastructure management can be a complex specialty for any business, and is often the domain of the largest IT-centric businesses such as MicrosoftHewlett-Packard and IBM, along with other major enterprises in retail, finance, pharmaceuticals, entertainment and manufacturing. ITIL adoption and maintenance normally requires trained and certified experts to guide a company and its IT staff.

Ongoing development for ITIL has been vested in Axelos, a joint-venture company created by the U.K. Cabinet Office and Capita PLC. The latest version of ITIL was released in July 2011 and is often called ITIL 2011. It clarifies and expands upon many of the processes from the previous 2007 edition, often called version 3 or ITIL v3.


Axelos supports five levels of ITIL certification: Foundation, Intermediate Level Lifecycle and Capability tracks, Managing Across the Lifecycle, Expert Level and Master Qualification. ITIL certifications are granted by Axelos through accredited Examination Institutes located globally. Certification candidates accrue credits within this ITIL qualification system that unlock higher-level certification options such as ITIL Expert.

Continue Reading About ITIL (Information Technology Infrastructure Library)

Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 9:43 PM
Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 9:43 PM
Picture of System Administrator

KM for Financial Services

by System Administrator - Friday, 17 November 2017, 2:45 PM

Knowledge Management for Financial Services

The financial services industry faces many demanding challenges, from cost containment, to changing regulations and cybersecurity threats. To succeed in this increasingly complex and competitive environment requires having the right people, processes and technologies in place to ensure information is shared and acted upon properly and effectively. Download this special report to learn about the latest knowledge management technologies and strategies.

Please read the attached whitepaper...

Picture of System Administrator


by System Administrator - Saturday, 4 February 2017, 1:08 AM

Posted by Margaret Rouse

Kubernetes is Google's open source system for managing Linux containers across private, public and hybrid cloud environments.

This definition is part of our Essential Guide: A Google cloud services guide for the enterprise

Kubernetes automates the deployment, scaling, maintenance, scheduling and operation of multiple application containers across clusters of nodes. Kubernetes contains tools for orchestration, service discovery and load balancing that can be used with Docker and Rocket containers. As needs change, a developer can move container workloads in Kubernetes to another cloud provider without changing the code.

With Kubernetes, containers run in pods. A pod is a basic unit that hosts one or multiple containers, which share resources and are located on the same physical or virtual machine. For each pod, Kubernetes finds a machine with enough compute capacity and launches the associated containers. A node agent, called a Kubelet, manages pods, their containers and their images. Kubelets also automatically restart a container if it fails.

Other core components of Kubernetes include:


  • Master: Runs the Kuberenetes API and controls the cluster.
  • Label: A key/value pair used for service discovery. A label tags the containers and links them together into groups.
  • Replication Controller: Ensures that the requested numbers of pods are running to user's specifications. This is what scales containers horizontally, ensuring there are more or fewer containers to meet the overall application's computing needs.
  • Service: An automatically configured load balancer and integrator that runs across the cluster.

Containerization is an approach to virtualization in which the virtualization layer runs as an application on top of a common, shared operating system (OS). As an alternative, containers can also run on an OS that's installed into a conventional virtual machine (VM) running on a hypervisor.

Containers are portable across different on-premises and cloud platforms, making them suitable for applications that need to run across various computing environments.

Kubernetes is mainly used by application developers and IT system administrators. A comparable tool to Kubernetes is Docker Swarm, which offers native clustering capabilities.


"We leverage a broad spectrum of operating systems for our application workloads. This is a testament to the inclusive and open nature of the Kubernetes ecosystem."Justin Erenkrantz 

Trending Terms 

Learning Center

Continue Reading About Google Kubernetes

Related Terms

  • GitHub - GitHub is a web-based revision control hosting service for software development and code sharing. GitHub was started in 2008 and ... See complete definition


Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 9:45 PM
Picture of System Administrator

Latency Management

by System Administrator - Tuesday, 20 January 2015, 9:19 PM

A Sensible Guide to Latency Management

By: Comcast

Latency is always present in any network, but it can be controlled and managed. The secrets to managing latency are known, and they can be applied to any network, but doing so effectively depends on making the proper choices. By managing latency well, your network can support cloud services, off-site backup and mirroring, and e-commerce – adding to your company’s bottom line and making your operations more efficient with happier users.


Please read the attached whitepaper.

Picture of System Administrator

Linux en una máquina virtual

by System Administrator - Wednesday, 4 November 2015, 4:40 PM

Consejos sobre cómo ejecutar Linux en una máquina virtual

por Mike Preston

Aquí hay algunos consejos y trucos sobre cómo sacar el máximo partido de ejecutar Linux virtualizado en un entorno VMware.

Linux ha sido prevalente al interior del centro de datos empresarial por muchos años. Servicios de LAMP, servidores web, servidores proxy, firewalls y balanceadores de carga son solo algunos de los muchos casos de uso que Linux ha estado proporcionando al sistema operativo base. Con la facilidad de uso y la documentación mejorando, muchas distribuciones de Linux han visto un aumento en su uso en la última década, más o menos. En algún lugar a lo largo de esta línea de tiempo del aumento de uso, también introdujimos la virtualización en nuestros centros de datos. Y con eso, hay algunas cosas a tener en cuenta al ejecutar Linux en una máquina virtual.

Gestión de volumen lógico

La gestión de volúmenes lógicos (LVM) es una tecnología incluida en muchas distribuciones recientes de Linux, que permite a los administradores realizar una serie de tareas en lo que respecta a la gestión de discos y particiones. Algunas de las características de striping –extender o dividir los datos a lo largo de múltiples discos– puede no ser frecuente en el mundo de la virtualización, ya que los usuarios están almacenando normalmente datos en la misma red de área de almacenamiento o almacén de datos. Con eso dicho, LVM ofrece otras funcionalidades interesantes también. Al permitir LVM, los administradores obtienen la capacidad de realizar extensiones del sistema de archivos en línea, creciendo diferentes particiones y sistemas de archivos sobre la marcha mientras se mantiene el sistema de archivos en línea y accesible. También, dependiendo de los requisitos de cumplimiento estrictos, LVM nos permite realizar instantáneas basadas en volumen para fines de respaldo y recuperación, sin invocar la funcionalidad basada en vSphere.

Mi consejo es particionar su VM con LVM si tiene una política estricta de disponibilidad en su carga de trabajo, y tomar ventaja de la funcionalidad de cambio de tamaño en línea. Si usted no necesita una gran cantidad de tiempo de actividad o no planea ejecutar particiones separadas dentro de su instalación de Linux, entonces deje LVM deshabilitado, ya que la complejidad supera con creces los beneficios.

Opciones de partición

Una instalación predeterminada de Linux generalmente solicita al usuario que simplemente use una partición para todos los archivos. Esto está bien en algunos casos, pero a medida que trata de ajustar y mejorar la seguridad y rendimiento de sus máquinas virtuales, tener particiones separadas para artículos tales como /tmp, /var, /home y /usr puede comenzar a tener sentido, especialmente si usted quiere que todas y cada una de las particiones tengan diferentes opciones de montaje. Las opciones de montaje se aplican a las particiones especificándolas en la línea correspondiente en el archivo /etc/fstab, como se muestra a continuación:

UUID=0aef28b9-3d11-4ab4-a0d4-d53d7b4d3aa4 /tmp ext4     defaults,noexec 1 2

Si tomamos como ejemplo un servidor web, uno de los casos de uso más comunes para Linux en una máquina virtual, podemos ver rápidamente cómo algunas de las opciones de montaje por "default" terminan perjudicando nuestras iniciativas de seguridad y rendimiento.

Noatime/atime/relatime: Estas son opciones de montaje que dictan cómo se manejan las marcas de tiempo en los archivos contenidos dentro de la partición. En distribuciones Linux antiguas, 'atime' era el valor por defecto, lo que significaba que el sistema operativo escribiría una marca de tiempo en los archivos de metadatos cada vez que se leyeran (sí, simplemente una lectura invoca esto). En términos de un servidor web que está sirviendo archivos al mundo durante todo el día, usted puede imaginar la sobrecarga de este proceso. Al especificar ‘noatime' en la partición que alberga los datos de su servidor web, usted es capaz de aliviar el servidor de esta sobrecarga al no actualizar el tiempo de acceso en absoluto. La opción por defecto en las distribuciones más recientes es 'relatime', trayendo lo mejor de ambos mundos y solo actualizando el tiempo de acceso si el tiempo de modificación pasa a ser nuevo.

Noexec/exec: Esto deshabilita o habilita la ejecución de archivos binarios en una partición determinada. En términos de nuestro ejemplo de servidor web, tiene perfecto sentido montar una partición /tmp con 'noexec'. De hecho, muchas guías de endurecimiento sugieren usar esta opción para mejorar la seguridad.

Los usuarios deben tener cuidado al cambiar los parámetros de tiempo de acceso. Algunas aplicaciones, como la funcionalidad relacionada con el correo, requerirán una opción de montaje 'atime' completo. En el ejemplo del servidor web, siempre y cuando las directrices de acceso y de seguridad lo permitan, monte sus datos del servidor web con 'noatime.' En términos de noexec, utilice esta opción con prudencia, ya que muchos instaladores y paquetes automatizados pueden extraer a /tmp y ejecutar desde allí. Esto es algo que puede ser fácilmente encendido y apagado, pero por lo menos especificaría 'noexec' para /tmp.


Utilizar el adaptador de red y el adaptador de disco paravirtualizado VMXNET3 ha sido la recomendación por bastante tiempo al interior de una máquina virtual. En una máquina virtual basada en Windows, podemos simplemente especificar esto y los controladores se instalan automáticamente en las herramientas de VMware. Linux presenta algunos desafíos en torno a la utilización de este hardware. En primer lugar, las nuevas versiones de las distribuciones de Linux a menudo vienen con su propio controlador para el adaptador VMXNET3 y utilizarán esos drivers de forma predeterminada, incluso si se instalan las herramientas de VMware.

Las distribuciones de Linux más viejas pueden contener una versión obsoleta del controlador VMXNET3, que no podría darle el conjunto completo de características que se incluyen dentro de la versión de herramientas de VMware. El KB2020567 de VMware describe cómo habilitar ciertas funciones dentro del controlador VMXNET. Si desea instalar el controlador VMXNET3 dentro de las herramientas de VMware, puede especificar la siguiente opción durante la instalación de las herramientas de VMware:

./ –clobber-kernel-modules=vmxnet3

El adaptador paravirtualizado SCSI es una gran manera de ganar un poco de rendimiento adicional en algún CPU de menor costo y por lo general se recomienda como el adaptador de elección. Asegúrese de revisar la lista de SO soportados antes de tomar esta decisión, para garantizar que su kernel o distribución está soportado por el adaptador SCSI paravirtual.

Yo aconsejo a los administradores utilizar VMXNET3 y PVSCSI, si es posible. Si está utilizando un kernel más antiguo, instale la versión VMXNET3 de VMware Tools. Si está usando un kernel más reciente, utilice el controlador nativo de Linux dentro de su distribución.

Gestión de la memoria

El sistema operativo Linux está moviendo constantemente páginas de memoria de la memoria física hacia su partición de intercambio local. Esto es así por diseño y, de hecho, VMware hace lo mismo con su funcionalidad de gestión de memoria. Pero la gestión de memoria de Linux se comporta de manera algo diferente, y moverá páginas de memoria incluso si la memoria física –que ahora es memoria virtual– está disponible. Con el fin de reducir la actividad de intercambio dentro de una máquina virtual de Linux, podemos ajustar un valor de ‘intercambio'. Un valor más alto indica más movimientos, mientras que un valor más bajo indica que a la memoria se le dejará sola con más frecuencia. Para ajustar este valor, solo añada la línea "Vm.swappiness=##" dentro de /etc/sysctl.conf y reiniciae el sistema, sustituyendo ## con su valor deseado.

Yo prefiero cambiar este valor a un número menor que el valor por defecto de 60. No hay razón para tener tanto al sistema operativo, como a vSphere gestionando su intercambio de memoria. Una vez más, realmente depende de la aplicación, pero yo normalmente establezco esto a un valor de entre 15 y 20.

Planificador I/O

Así como ESXi hace un gran trabajo con la memoria de gestión, también tiene su propia salsa especial en lo que respecta a la programación de I/O y escrituras al disco. Una vez más, el sistema operativo Linux duplica algunas de esta funcionalidades dentro de sí mismo. A partir del kernel 2.6, la mayoría de las distribuciones han estado utilizando la Completely Fair Queuing como el programador predeterminado de I/O. Los otros disponibles son NOOP, Anticipatory y Deadline. VMware explica simplemente cómo cambiar este valor y por qué usted querría hacerlo, ya que no tiene sentido programar I/O dos veces. En resumen, el programador predeterminado de I/O utilizado dentro de su kernel de Linux se puede cambiar añadiendo un switch elevador a su entrada de kernel grub.

No hay necesidad de programar dentro del sistema operativo, y luego programar una vez más en el hipervisor. Yo sugiero utilizar el planificador NOOP de I/O, ya que no hace nada para optimizar el disco I/O, lo que permite a vSphere gestionarlo todo.

Retire el hardware no utilizado y deshabilite servicios innecesarios

¿Cuántas veces ha usado ese disquete virtual dentro de sus máquinas virtuales en el último año? ¿Qué tal ese altavoz interno del PC? Si no va a utilizar esos dispositivos, entonces la respuesta simple es ponerlos en la lista negra para que no se carguen en el kernel de Linux. Los comandos para quitar un disquete son los siguientes: 

echo "blacklist floppy" | tee /etc/modprobe.d/blacklist-floppy.conf

rmmod floppy

update-initramfs -u

Además, no hay necesidad de parar en el hardware no utilizado. Mientras está en ello, puede también deshabilitar cualquier consola virtual que probablemente no esté utilizando. Esto se puede hacer comentando líneas tty dentro de /etc/inittab, como se muestra a continuación.

1:2345:respawn:/sbin/getty 38400 tty1
2:23:respawn:/sbin/getty 38400 tty2
#3:23:respawn:/sbin/getty 38400 tty3
#4:23:respawn:/sbin/getty 38400 tty4
#5:23:respawn:/sbin/getty 38400 tty5
#6:23:respawn:/sbin/getty 38400 tty6

Sugiero que se deshaga del disquete. Tenga en cuenta que también tendrá que quitar el hardware de la configuración de las máquinas virtuales, así como desactivarlo dentro del BIOS de la máquina virtual. Algunos otros servicios que puede añadir de manera segura a la lista negra incluyen la configuración de monitores raid (mptctl), pcspker, snd_pcm, snd_page_alloc, snd_timer, snd, snd_soundcore (todos tienen que ver con sonido), coretemp (monitorea la temperatura de los CPU), parport y parport_pc (puertos paralelos).

Como siempre, asegúrese de que realmente no está utilizando cualquiera de estos servicios antes de ponerlos en las listas negras. Además, yo siempre dejo un par de consolas virtuales habilitadas en caso de que pudiera usarlas, pero seis es un poco exagerado.

Estos son solo algunos elementos a tener en cuenta cuando se ejecuta Linux virtualizado en un entorno VMware. En términos de mejoras de rendimiento, el viejo dicho de "depende" aplica a todos y cada uno de ellos. Usted puede ver más aumento de rendimiento con algunos de los ajustes, y una degradación de otros. Como siempre, es una buena práctica probar alguno de estos cambios en un entorno de laboratorio antes de implementarlos en la producción. La tecnología está en constante cambio y, con ello, también las mejores prácticas.

Próximos pasos

Más de Linux en:

Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 9:46 PM
Picture of System Administrator

Mainframe MLC Costs

by System Administrator - Wednesday, 18 February 2015, 6:39 PM

10 Steps to Reduce Mainframe MLC Costs

Monthly license charges (MLC) are rising by 7% or more each year, and account for 30% of total mainframe costs. Yet managing MLC costs is an inexact science. This best practice guide provides a step-by-step process to reduce mainframe MLC costs up to 20% without compromising business critical services.

Please read the attached whitepaper.

Picture of System Administrator

Managing User Accounts on Your Cloud Servers

by System Administrator - Thursday, 8 January 2015, 3:36 PM

A Guide for Easily Managing User Accounts on Your Cloud Servers

Download this new guide to learn how modern IT and ops teams can quickly and easily extend Active Directory or LDAP user stores to the cloud. This guide outlines how moving to a Directory-as-a-Service provides innovative organizations tighter security, reduced expenses, and increased agility. Don't let the shift to IaaS decrease your control and increase your security risk. Get the knowledge you need to keep up with this quickly changing landscape.

Please read the attached whitepaper.

Picture of System Administrator

Manual de Calidad

by System Administrator - Wednesday, 22 October 2014, 12:15 PM


Por: Salvador Rodríguez González

Descargue Gratis - Manual de Calidad

En mi trabajo cotidiano de transformar organizaciones, encuentro entre los líderes, una tendencia creciente a quejarse de la gente; de sus competencias débiles, de falta de compromiso e iniciativa, entre otros. Como este fenómeno reduce el nivel de confianza y respeto mutuo en la empresa y su impacto en la calidad es tremendo, he considerado importante reflexionar al respecto y compartir mis reflexiones con gente como usted, que es clave en la gestión de la calidad y que me honra, leyendo mis humildes artículos.

Mucho se habla sobre el factor humano, como el elemento más valioso en toda organización; dado que como un ser racional, es el que dinamiza la utilización de los recursos materiales, financieros y tecnológicos. Quizás es por ello que cargamos sobre sus hombros, las deficiencias de la calidad, cuando estas suceden. ¿Sera esto justo?

Sabemos que satisfacer adecuadamente las exigencias del cliente, no solo depende de la gente que labora en la empresa; sin embargo ante una inconformidad, es tradición buscar culpables, más que las causas. Olvidamos que la gente no actúa en el vacío, sino dentro de un sistema, cuyos elementos impactan los resultados finales 

¿Cuáles son esos elementos? Ichak Adizes identifica a: La Misión y Visión; La Estructura y los Procesos de Solución de Problemas, como los elementos que condicionan los resultados de una gestión exitosa. Valdría la pena preguntarnos ¿Sera justo imputar a la gente por los resultados? cuando no existe claridad en la misión institucional, ni tiene definida su contribución al logro de la misma. Cuando no participa en la toma de las decisiones trascendentes de la empresa. Cuando la estructura no se adapta a las exigencias cambiantes del cliente, con la velocidad necesaria. Seamos conscientes, estos elementos no los define el trabajador.

Por otro lado, siendo un ser humano con sentimientos y necesidades propias, el comportamiento y sentido de compromiso de la gente,  no puede ser automático y permanente, fluctúa de acuerdo a tres condicionantes:

1) Tarea: la claridad en la tarea y su adaptación a las condiciones cambiantes del entorno son clave y además, que el empleado disponga de las competencias personales necesarias para el buen desempeño, es un factor crítico en su motivación o frustración.

2) Autoridad: Disponer de autoridad sobre el uso de los recursos necesarios para cumplir la responsabilidad asignada, es igualmente importante. No es justo exigir un resultado, si no se proporciona control sobre los recursos que se necesitan.

3) Recompensas: Difícilmente se logra motivar a un trabajador para el buen desempeño, si este se considera mal recompensado, es más, ver que otros producen menos y son igualmente recompensados, también les desmotiva. Pero las Recompensas no solo significan dinero y prestaciones pecuniarias, estas son las más caras; existen otras recompensas intrínsecas a la tarea, que son más baratas y nos motivan cada vez que las realizamos, como: la adaptación del estilo personal, a la tarea encomendada. No puedes colocar a una persona extrovertida y humorista, como gerente de una funeraria, sería su martirio. También inciden en la motivación: El sentido de pertenencia; el sentimiento de poder que otorga el puesto; la importancia que considera le asignan a su contribución; la convicción de que su trabajo es importante, entre otros. 

En síntesis, organizar mejor el trabajo de la gente, no solo motiva el buen desempeño, sino también reduce los obstáculos a la calidad, que impone la inconformidad de la gente, debido a las causas analizadas. Por lo tanto, si bien las quejas de los líderes en muchos casos son validas, pero la solución está en sus manos, más que en las del trabajador. No siempre es la gente, la causa de las inconformidades, revisa el sistema en que operan y encuentra las fallas verdaderas.

Como hemos comentado hasta la saciedad, los sistemas de gestión de la calidad generan efectividad y eficiencia en la búsqueda de satisfacer necesidades al cliente externo; se basan en el esfuerzo de la gente y la articulación del sistema en que operan, por lo tanto, la sabiduría de la alta dirección está en promover la confianza y el respeto mutuo hacia adentro y fuera de la organización, no en reducirla. Confiar y respetar a la gente, genera grandes dividendos.


“Todos somos unos genios, pero si juzgas a un pez por su habilidad para escalar árboles, 

vivirá toda su vida pensando que es un inútil.  

Albert Einstein


Picture of System Administrator

Marketing por Internet

by System Administrator - Saturday, 4 July 2015, 10:13 PM
Picture of System Administrator

Melbourne shuffle algorithm

by System Administrator - Wednesday, 30 August 2017, 4:22 PM

Melbourne shuffle algorithm

The Melbourne shuffle algorithm is a sequence of actions intended to obscure the patterns by which cloud-based data is accessed. The goal is to make it difficult for unauthorized parties to draw conclusions about what type of data is being stored in the cloud by observing patterns that emerge as the data is accessed.

Even when data is encrypted, details about how often the data is accessed or what action is taken after the data has been accessed can be revealing. By analyzing digital footprints, an outsider can predict such things as who is likely to own a particular data set or what business announcement is likely to correlate with a particular access pattern.

As with a deck of cards, a data shuffle rearranges the array to achieve a random permutation of its elements. The Melbourne shuffle moves small amounts of data from the cloud server to the user's local memory, where it is rearranged before being returned to the server. Even when the same user repeatedly accesses the same data, shuffling ensures the access path will not be consistent.

The algorithm, which obfuscates access patterns by making them look quite random, was written by computer scientists at Brown University in 2014. It is named for another kind of shuffle -- a popular dance move in Australia during the 1990s.



Picture of System Administrator

Meme de Internet

by System Administrator - Tuesday, 5 September 2017, 4:17 PM

Meme de Internet


El término meme de Internet se usa para describir una idea, concepto, situación, expresión y/o pensamiento humorístico manifestado en cualquier tipo de medio virtual, cómicvídeo, textos, imágenes y todo tipo de construcción multimedia que se replica mediante internet de persona a persona hasta alcanzar una amplia difusión.t1​ Los memes pueden propagarse mediante hipervínculosforosimageboardssitios web y cualquier otro difusor masivo, sobre todo, como lo son hoy en día las redes sociales. El concepto de meme se ha propuesto como un posible mecanismo de evolución cultural.1​ Las estrategias publicitarias de mercadotecnia viral se basan en la propagación de memes para promocionar un producto o concepto.


El nombre meme, tiene su origen en el concepto concebido por Richard Dawkins, zoólogo y científico. En su libro El gen egoísta (1976) expone la hipótesis memética de la transmisión cultural. Propone la existencia de dos procesadores informativos distintos en los seres humanos: uno actúa a partir del genoma gracias a la replicación de genes a través de las generaciones y otro actúa a nivel cerebral, replicando la información cultural del individuo, la cual es recibida por enseñanza, imitación o simple asimilación. En este caso, Dawkins nombra como «meme» a la unidad mínima de información que se puede transmitir. Según el autor, los memes conforman la base mental de nuestra cultura, como los genes conforman la primera base de nuestra vida.2​ Años más tarde, el propio Dawkins describió a los memes de Internet como un «secuestro de la idea original», implicando que incluso el concepto de meme ha mutado y evolucionado por sí mismo.3

Otros autores, como el biólogo Edward Wilson, han señalado que el concepto de unidades culturales replicables ya apareció a finales de los 60, bajo diversos nombres diferentes como «mnemotipo», «idene», «sociogen», «culturgen» o «tipo cultural».4

Una de las más recientes investigaciones acerca de este tema, fue hecha por Knobel y Lankshear en 2007. Ellos sugieren que la mayoría de los memes no son replicados de manera intacta, sino que pasan por diferentes procesos de reinterpretación y modificación, lo que permite obtener diferentes versiones de un mismo meme, respetando la idea original, lo que a su vez permite su propagación masiva.

La naturaleza de Internet, basada en la premisa de compartir información ha contribuido a la difusión de memes. Uno de los primeros memes documentados transmitidos por Internet fue el gif animado de un bebé bailando conocido como «Ooga-Chaka Baby», que apareció en 1996. Según el especialista en comunicación mexicano Gabriel Pérez Salazar, el meme de Internet como una imagen acompañada por texto como unidad cultural replicada aparece «de manera identificable, plenamente reconocida» entre 2000 y 2002.1

Evolución y propagación

Los memes de internet pueden mantenerse inmutables o evolucionar en el tiempo, bien al azar, o bien por imitación, parodia o por el añadido de nuevos contenidos. Los memes normalmente surgen como una forma de interacción social, como referencias culturales o como una forma de describir situaciones de la vida real de las personas.5​ La rapidez con la que se pueden extender a escala mundial y su impacto social ha atraído el interés de investigadores y profesionales de la industria de comunicación.6​ En el área académica, se investigan modelos para predecir qué memes se propagarán por la red y cómo evolucionarán. Comercialmente, se usan en publicidad y márketing.

Un estudio de las características de los memes de internet alcanzó varias conclusiones sobre la propagación de los mismos: por ejemplo, que los memes «compiten» entre ellos por la atención del público, lo que resulta en un menor tiempo de vida, pero también pueden «colaborar», gracias a la creatividad de los usuarios de Internet, lo que contribuye a su difusión y permanencia.78​ Se dan ejemplos de memes muy populares que se extinguen al poco tiempo, mientras que otros, sin alcanzar el mismo nivel de rápido reconocimiento, sobreviven gracias a su asociación con otros memes.78​ Para Shifman (2011), es importante que los memes sean compartidos en el interior de subculturas específicas: la motivación para que los usuarios participen en la circulación y reinterpretación de los memes en línea, surge precisamente de la necesidad de pertenecer a una comunidad definida, al menos parcialmente, por estas prácticas culturales. Esta es la dimensión que, con base en Giménez (2000), nos permite establecer una relación entre el uso del meme en internet y los procesos de construcción identidarios de los usuarios que participan en dichas comunidades interpretativas: el sentido de pertenencia.[cita requerida]

En 2013, Dominic Basulto escribió en el The Washington Post que el crecimiento de Internet y las tácticas de la industria publicitaria han afectado negativamente a la capacidad de los memes de transmitir unidades de cultura humana durables, y, en su opinión contribuyen a difundir banalidades en vez de ideas importantes.9

Usos comerciales

Los comunicadoresrelacionistas públicospublicistas y profesionales de la mercadotecnia han usado los memes de Internet como una estrategia de mercadeo viral y mercadeo de guerrilla.10​ El empleo de los memes para comercializar productos o servicios nació por la naturaleza de moda pasajera que estos tienen. Sirven para crear una imagen de inteligencia o modernidad asociada al producto a promocionar. Un ejemplo de uso comercial es la publicidad de películas, donde se busca generar una actitud positiva en críticos y espectadores.11​ Aunque este sistema ha parecido funcionar, todavía se encuentra en modo de prueba, ya que implica que el interés en el contenido no está directamente asociado al valor de este. Es difícil enfocar un producto de manera seria si su publicidad se centra en un meme.[cita requerida]

Véase también


  1. a b c Martínez Torrijos, Reyes (8 de julio de 2014). «El significado cultural del meme se propaga con el relajo cibernético»La Jornada.
  2. Dawkins, Richard (1989). The Selfish Gene (2.ª edición). Oxford University Press. p. 192. ISBN 0-19-286092-5.
  3. Dawkins, Richard (22 de junio de 2013). The Saatchi & Saatchi New Directors' Showcase (en inglés).
  4. Wilson, Edward (1998). Consilience: The Unity of Knowledge. Nueva York: Alfred A. Knopf, Inc. ISBN 978-0679768678.
  5. Pérez Salazar, Gabriel; Aguilar Edwards, Andrea; Guillermo Archilla, María Ernestina (2014). «El meme en internet. Usos sociales, reinterpretación y significados, a partir de Harlem Shake»Argumentos [online] 27ISSN 0187-5795.
  6. Kempe, David; Kleinberg, Jon; Tardos, Éva (2003). «Maximizing the spread of influence through a social network»Int. Conf. on Knowledge Discovery and Data Mining (ACM Press).
  7. a b Coscia, Michele (5 de abril de 2013). «Competition and Success in the Meme Pool: a Case Study on». Center for International Development, Harvard Kennedy School. Association for the Advancement of Artificial Intelligence.
  8. a b Mims, Christopher (28 de junio de 2013). «Why you’ll share this story: The new science of memes»Quartz. Archivado desde el original el 18 de julio de 2013.
  9. Basulto, Dominic (5 de julio de 2013). «Have Internet memes lost their meaning?»The Washington Post. Archivado desde el original el 9 de julio de 2013.
  10. Flor, Nick (11 de diciembre de 2000). «Memetic Marketing». InformIT. Consultado el 29 de julio de 2011.
  11. Carr, David (29 de mayo de 2006). «Hollywood bypassing critics and print as digital gets hotter». New York Times.


Page: (Previous)   1  2  3  4  5  6  7  8  9  10  ...  63  (Next)