Glosario KW | KW Glossary

Ontology Design

Navegue por el glosario usando este índice.

Especial | A | B | C | D | E | F | G | H | I | J | K | L | M | N | Ñ | O | P | Q | R | S | T | U | V | W | X | Y | Z | TODAS

Página: (Anterior)   1  2  3  4  5  6  7  8  9  10  ...  21  (Siguiente)


Imagen de System Administrator

Delivering Data Warehousing as a Cloud Service

de System Administrator - miércoles, 8 de julio de 2015, 21:27

Delivering Data Warehousing as a Cloud Service

The current data revolution has made it an imperative to provide more people with access to data-driven insights faster than ever before. That's not news. But in spite of that, current technology seems almost to exist to make it as hard as possible to get access to data.

That's certainly the case for conventional data warehouse solutions, which are so complex and inflexible that they require their own teams of specialists to plan, deploy, manage, and tune them. By the time the specialists have finished, it's nearly impossible for the actual users to figure out how to get access to the data they need.

Newer 'big data' solutions do not get rid of those problems. They require new skills and often new tools as well, making them dependent on hard-to-find operations and data science experts.

Please read the attached whitepaper.

Imagen de System Administrator

Designing and Building an Open ITOA Architecture

de System Administrator - martes, 16 de junio de 2015, 22:51

Designing and Building an Open ITOA Architecture

This white paper provides a roadmap for designing and building an open IT Operations Analytics (ITOA) architecture. You will learn about a new IT data taxonomy defined by the four data sources of IT visibility: wire, machine, agent, and synthetic data sets. After weighing the role of each IT data source for your organization, you can learn how to combine them in an open ITOA architecture that avoids vendor lock-in, scales out cost-effectively, and unlocks new and unanticipated IT and business insights.
Please read the attached whitepaper.
Imagen de System Administrator

Desktop as a Service (DaaS)

de System Administrator - miércoles, 11 de noviembre de 2015, 18:29

Desktop as a Service (DaaS)

Posted by Margaret Rouse

Desktop as a Service (DaaS) is a cloud service in which the back-end of a virtual desktop infrastructure (VDI) is hosted by a cloud service provider.

DaaS has a multi-tenancy architecture and the service is purchased on a subscription basis. In the DaaS delivery model, the service provider manages the back-end responsibilities of datastoragebackup, security and upgrades. Typically, the customer's personal data is copied to and from the virtual desktop during logon/logoff and access to the desktop is device, location and network independent. While the provider handles all the back-end infrastructure costs and maintenance, customers usually manage their own desktop images, applications and security, unless thosedesktop management services are part of the subscription.

Desktop as a Service is a good alternative for a small or mid-size businesses (SMBs) that want to provide their end users with the advantages a virtual desktop infrastructure offers, but find that deploying a VDI in-house to be cost-prohibitive in terms of budget and staffing.

This definition is part of our Essential Guide: What you need to know about cloud desktops and DaaS providers


Imagen de System Administrator

Desktop Virtualization Security

de System Administrator - martes, 16 de septiembre de 2014, 00:43

Top 10 reasons to strengthen information security with desktop virtualization

Regain control and reduce risk without sacrificing business productivity and growth

  • New ways of working call for new ways of managing risk. Mobility, flexwork, bring-your-own device (BYOD)  and increased collaboration across organizations have changed the risk profile and undermine existing IT architectures. The challenge is to allow people the flexibility they need for optimal business productivity while ensuring the security and compliance required by the enterprise.
  • Both IT and the business are demanding more of their networks. But networks designed to simply forward packets don't have the capability or the intelligence to understand these high-level, application-related demands. Networks need to change, as does the way IT thinks about them and manages them. In this white paper, see how enterprises can accommodate today's needs while laying the groundwork for supporting tomorrow's more-advanced software-defined networks.

Please read the attached whitepapers.

Imagen de System Administrator

Development testing for C# Applications

de System Administrator - miércoles, 26 de agosto de 2015, 15:16

Development testing for C# Applications

Static analysis shouldn't be about finding loads of coding style or standard issues. It should be focused on finding the most critical defects. Although traditional byte code analysis solutions such as FxCop are useful, they can miss critical, crash causing defects - plus produce a large set of coding style issues, which can slow down the development team. Learn how the Coverity Development Testing Platform can help you:

  • Find and fix resource leaks, concurrency problems and null references within Visual Studio
  • Eliminate defects such as inconsistent indention issues and copy paste errors that can only be found by understanding the intent of the programmer through source code analysis
  • Understand the impact of change to better prioritize and focus your automated testing efforts

Please read the attached whitepaper.


Imagen de System Administrator


de System Administrator - miércoles, 15 de febrero de 2017, 19:07


How to utilize it in your IT workspace

by TechTarget

Please read the attached whitepaper.


Imagen de System Administrator

DevOps (PMI)

de System Administrator - lunes, 29 de diciembre de 2014, 17:45

Definición de DevOps: mejor explicamos lo que no es

by Jennifer Lent

Mucho se ha escrito acerca de lo que es DevOps: Un camino para que los desarrolladores y directores de operaciones colaboren; un conjunto de mejores prácticas para la gestión de aplicaciones en la nube; una idea Ágil que se basa en la integración continua, lo que permite frecuentes liberaciones de código.

Según Wikipedia: "DevOps es un acrónimo inglés de development (desarrollo) y operations (operaciones), que se refiere a una metodología de desarrollo de software que se centra en la comunicación, colaboración e integración entredesarrolladores de software y los profesionales de operaciones en las tecnologías de la información (IT). DevOps es una respuesta a la interdependencia del desarrollo de software y las operaciones IT. Su objetivo es ayudar a una organización a producir productos y servicios software rápidamente. Las empresas con entregas (releases) muy frecuentes podrían requerir conocimientos de DevOps. Flickr desarrolló un sistema DevOps para cumplir un requisito de negocio de diez despliegues al día. A este tipo de sistemas se les conoce como despliegue continuo (continuous deployment) o entrega continua (continuous delivery), y suelen estar asociados a metodologías lean startup. Grupos de trabajo, asociaciones profesionales y blogs usan el término desde 2009."

La definición de DevOps cubre todas estas cosas y más. Pero dado que el término ha adquirido estatus de palabra de moda, puede ser más interesante preguntarse no lo que es DevOps, sino lo que no es. En este artículo, SearchSoftwareQuality preguntó a algunos profesionales de software exactamente eso. He aquí lo que dijeron.

1. DevOps no es un puesto de trabajo.

Publicaciones en sitios de empleo sugieren otra cosa, pero DevOps no es un puesto de trabajo, dijo el consultor de Agile, Scott Ambler. "¿Gestor de DevOps? No sé lo que es eso". DevOps no debe ser un rol laboral, dijo. "DevOps se trata de que los desarrolladores entiendan la realidad de las operaciones y de que el equipo de operaciones comprenda lo que involucra el desarrollo." DevOps, el concepto, es un aspecto importante del desarrollo y la entrega de software, dijo Ambler. "Pero el puesto de DevOps es un síntoma de que las organizaciones que contratan [gerentes de DevOps] no entienden lo que DevOps es realmente. Ellos no lo entienden todavía."

La postura de Ambler sobre DevOps va en contra de la sabiduría convencional. DevOps apareció en la lista de 10 títulos de trabajo que es probable encontrar, de acuerdo con

2. DevOps no es una categoría de herramienta de software.

DevOps no se trata de herramientas, sino de cultura, dijo Patrick Debois en unapresentación titulada “DevOps: tonterías, herramientas y otras cosas inteligentes”, durante la Conferencia GOTO. Debois, quien acuñó el término "DevOps" y fundó una conferencia conocida como DevOpsDays, dijo que las herramientas juegan un papel importante en el apoyo al enfoque de DevOps para la entrega y la gestión de software, pero DevOps no se trata de las herramientas en sí.

Ambler dijo la noción de que hay "herramientas que hacen que DevOps" refleje la realidad actual: DevOps, la palabra de moda, todavía se está moviendo hacia el pico de la curva. "Cada herramienta es una herramienta DevOps", agregó que mientras los vendedores de software continúan empujando sus visiones de DevOps, "mucha de la discusión es ingenua."

3. DevOps no se trata de resolver un problema de TI.

A pesar de sus muchos significados, DevOps es ampliamente entendido como una forma de resolver un problema de TI: permite que desarrollo y operaciones colaboren en la entrega de software. Pero ese no es su objetivo final, dijo Damon Edwards, socio gerente de consultoría de TI, Soluciones DTO, en Redwood City, California. "El punto de DevOps es permitirle a su empresa reaccionar ante las fuerzas del mercado lo más rápido, eficiente y confiable como sea posible. Sin el negocio, no hay otra razón para que estemos hablando de problemas DevOps, mucho menos pasar tiempo resolviéndolos", escribió Edwards escribió en su blog.

Kevin Parker, experto de SearchSoftwareQuality, dijo que el nuevo reto que encaran los gerentes de DevOps es toda la atención que el tema obtiene por parte del negocio. "Lo que antes era una tarea arcana, de elaborada coordinación y gestión de proyectos es ahora en parte diplomacia, parte protector –y una buena cantidad de innovación."

4. DevOps no es sinónimo de integración continua.

DevOps se originó en Agile como una forma de apoyar la práctica ágil de liberaciones de código más frecuentes. Pero DevOps es más que eso, dijo Ambler. "El hecho de que se practique la integración continua no significa que se está haciendo DevOps." Él ve a los gerentes de operaciones como los principales interesados ​​que los equipos ágiles necesitan trabajar para liberar software.


5. DevOps no... desaparecerá.

A pesar de las ideas falsas a su alrededor, DevOps está aquí para quedarse y sigue siendo importante para la entrega exitosa de software. "Tanto si lo llamamos DevOps o no, la gestión de cambios y versiones está experimentando una [exponencial] expansión en importancia", dijo Parker. Hay sustancia de fondo en DevOps, añadió el analista de Ovum Michael Azoff. "Por supuesto, hay expectación en torno a DevOps. Todavía estamos en la primera fase. Es donde Agile se ubicaba hace un par de años."

Please read the attached whitepaper: "Top tips for DevOps testing: Achieve continuous delivery"

Más noticias y tutorials:



Imagen de System Administrator


de System Administrator - viernes, 27 de febrero de 2015, 11:23


Gartner: DevOps is good; DevSecOps is better

by Nicole Laskowski

Make way for DevSecOps. According to Gartner analyst David Cearley, CIOs need to add security professionals to their DevOps teams.

DevOps, or the blending of an enterprise's applications development and systems operations teams, has become a trendy IT topic. The new operating model is often employed in conjunction with Agile software development methods and leverages the scalability of cloud computing -- all in the interest of making companies more nimble and competitive. But, according to one expert, the approach as it is typically practiced today doesn't go far enough.

David Cearley, an analyst at Gartner Inc., believes today's CIOs need to revise DevOps to include security. He calls it DevSecOps. "It's development, it's security, it's operations operating as a dynamic force to create solutions," he said.

Investing in firewalls and perimeter defense isn't bad per se, Cearley said. But with high profile breaches at Target, Home Depot and Sony that left these organizations (among others) with black eyes, it's clear that simply guarding the borders is not enough. By adding security to a DevOps program, CIOs and their teams will be forced to think about security in a more granular way -- at the start of the software development process, rather than as an afterthought.


David Cearley

Adding security to DevOps, in classic IT language, turns out to be a people and process problem more than a technology problem. For many organizations, these teams work in separate closets "that don't even have a common wall between them," Cearley said. Still, getting everyone in the same room will be easier than getting everyone on the same page. Luckily, most enterprises have a person uniquely suited to break down cultural barriers and demand that security become a DevOps best practice, Cearley argued: the CIO.

"The CIO is the only one [who] is in a position to do something about this because the security team reports to him, the operations team reports to him, the applications team reports to him and the architecture team reports to him," he said. "The CIO is the leader; the CIO has to direct his team to say, 'If you don't work together, go get another job somewhere else.'"

DevSecOps manifesto

1. CIO-driven

2. Collaboration of unlike teams

3. Focus on risk, not security

Source: David Cearley, Gartner Inc.

Confronting the teams' "biases and preconceived notions" of how this work should be done will be one of the CIO's biggest challenges, Cearley said. "The CIO is asking them to rethink that." One suggestion? Rather than accepting separate reports on application development, operations and security, CIOs should reinforce the importance of collaboration by demanding a "unified approach for how we're going to be able to develop, secure, operate and manage the services we're delivering to our users," he said.

Cearley also recommended that CIOs direct the conversation away from security toward risk, which can help IT better integrate the business perspective into the process. "If you start with security, the focus becomes what tools are needed to get the ultimate security. I'm sorry, but that's the wrong focus," Cearley said. "You have to start with risk." By keeping thefocus on risk, CIOs will help the business understand how IT can contribute to breaking into a new market or experimenting with a new type of analytics -- as well as how IT can minimize the potential dangers of doing so.

Let us know what you think of the story; email Nicole Laskowski, senior news writer, or find her on Twitter @TT_Nicole.



Imagen de System Administrator

Difusión (KW)

de System Administrator - jueves, 2 de mayo de 2013, 17:13

Antes de introducirnos en los detalles de este tema, es importante que cualquier técnica de difusión no presente al principio productos específicos, siglas u otros aspectos técnicos que no contribuyan a la visión práctica del asunto. En el momento de la presentación a los potenciales Usuarios, se debe hablar de los beneficios generales. Luego, para cada sector, adaptar el tipo y profundidad de los mismos al lenguaje e "idiosincracia" de cada uno. 

Cada producto o servicio “KW Compatible” tiene su propia forma de entrega y distribución. Éstas dependen de:

1. Sector al que apuntan.

2. Nivel de los HKW/DKW involucrados.

3. Tipo de producto o servicio, que en su aspecto más simple pueden ser de tres tipos: 

a. Contenidos Reusables para todas las plataformas tecnológicas (redes sociales, "cloud computing", web 3.0, "virtualización", normativas, direct target, logística, distribución, existencias, indicadores de calidad, bibliografía, catálogos, reglas de negocio, autorizaciones, historias clínicas, investigación, etc).

b. Transacciones KIP (a través de un servidor KIP). “¿Cuántos KIPS ha recibido de sus distribuidores este mes?”.

c. Hardware (telefonía móvil, automatismos industriales, handhelds, hogar digital).

En general fabricantes y distribuidores se manejan sobre la demanda de sus clientes. Saben que tomar la iniciativa es caminar sobre “el filo de la navaja”. Por eso es tan importante generar primero la aceptación en el ambiente científico y universitario, pues aquí se podrán generar componentes funcionales reales y salir airoso de la gran pregunta: “¿esto realmente funciona?”.

En estos temas la Comunidad Europea lleva importantes iniciativas, como el eEurope. En cada país de dicha Comunidad, el Estado ofrece subsidios importantes para este tipo de iniciativas. 

El argumento “liderazgo” es tomado con suma cautela por los potenciales inversores en este tipo de tecnología. La opción KW oficia como incubadora de emprendimientos sectoriales.

Otro argumento importante del que también hablamos es “no competir con los desarrolladores de software”. Es imprescindible presentar la integración KW a los desarrollos de estas empresas como un verdadero “seguro de vida”. Con la compatibilidad KW tendrán una curva de obsolescencia menor y la amenaza del código abierto será relativa. Recordemos que el proyecto GNU/Linux impulsa la apertura y reusabilidad de los componentes de programación y no de contenidos creados por aquel Usuario Final que no sabe o no le interesa programar.

Cada uno de los grandes componentes del proyecto tiene su propia estrategia de difusión. 

Imagen de System Administrator

Digital Marketing Plan

de System Administrator - jueves, 17 de septiembre de 2015, 19:00


por Juan Carlos Muñoz | Marketing Manager, Interactive & CRM at Volvo Car España | Profesor de ICEMD

Imagen de System Administrator

Distributed Computing

de System Administrator - lunes, 10 de agosto de 2015, 22:13

Distributed Computing

Posted by: Margaret Rouse

Distributed computing is a model in which components of a software system are shared among multiple computers to improve efficiency and performance. 

According to the narrowest of definitions, distributed computing is limited to programs with components shared among computers within a limited geographic area. Broader definitions include shared tasks as well as program components. In the broadest sense of the term, distributed computing just means that something is shared among multiple systems which may also be in different locations. 

In the enterprise, distributed computing has often meant putting various steps in business processes at the most efficient places in a network of computers. For example, in the typical distribution using the 3-tier model, user interface processing is performed in the PC at the user's location, business processing is done in a remote computer, and database access and processing is conducted in another computer that provides centralized access for many business processes. Typically, this kind of distributed computing uses the client/server communications model.

The Distributed Computing Environment (DCE) is a widely-used industry standard that supports this kind of distributed computing. On the Internet, third-party service providers now offer some generalized services that fit into this model.

Grid computing is a computing model involving a distributed architecture of large numbers of computers connected to solve a complex problem. In the grid computing model, servers or personal computers run independent tasks and are loosely linked by the Internet or low-speed networks. Individual participants may allow some of their computer's processing time to be put at the service of a large problem. The largest grid computing project is SETI@home, in which individual computer owners volunteer some of their multitasking processing cycles (while concurrently still using their computer) to the Search for Extraterrestrial Intelligence (SETI) project. This computer-intensive problem uses thousands of PCs to download and search radio telescope data.

There is a great deal of disagreement over the difference between distributed computing and grid computing. According to some, grid computing is just one type of distributed computing. The SETI project, for example, characterizes the model it’s based on as distributed computing. Similarly, cloud computing, which simply involves hosted services made available to users from a remote location, may be considered a type of distributed computing, depending on who you ask.

One of the first uses of grid computing was the breaking of a cryptographic code by a group that is now known as That group also describes its model as distributed computing.

Related Terms



  • Software applications

    - Terms related to software applications, including definitions about software programs for vertical industries and words and phrases about software development, use and management.

  • Internet applications

    - This glossary contains terms related to Internet applications, including definitions about Software as a Service (SaaS) delivery models and words and phrases about web sites, e-commerce ...

Dig Deeper

Continue Reading About distributed computing


Imagen de System Administrator


de System Administrator - jueves, 2 de mayo de 2013, 17:14

Componente DKW©

Definición 2003


1. Introducción - Contenidos Tradicionales

En general, hablamos de “contenido” cuando nos referimos al desarrollo de una temática específica, presentado en algún medio o soporte para su difusión.

Una biblioteca bien organizada (con el software MicroIsis, por ejemplo), posee todos sus volúmenes accesibles por varios índices, tales como ISBN, Título, Autores, Editorial, País, Idioma, Año de Publicación, Palabras Clave (descriptores o keywords agrupados en estándares), etc.

Más aún, si tuviera gran parte de los volúmenes digitalizados y hasta un buscador contextual o por palabras clave, igual hablaríamos de “contenidos tradicionales”. Esto es así porque es el propio Usuario Final quien debe generar las relaciones entre estos contenidos, al igual que el contexto de su aplicabilidad. Para un médico, por ejemplo, puede ser la diferencia en la calidad de su diagnóstico, tratamiento o prescripción. Para un abogado puede ser la diferencia entre ganar o perder un caso. Cada actividad obtendrá gran asertividad si posee estas herramientas.

Volvamos un momento al ejemplo del material de una biblioteca. Con las debidas autorizaciones, el material impreso puede ser fotocopiado, mientras que el digital puede ser copiado e insertado en un documento, o introducido en una base de datos multimedia. Estos dos últimos casos constituyen la forma actual de reutilizar un contenido en forma relativamente automatizada. La “inteligencia” del contenido final generado depende del tiempo y capacidad del Usuario Final, pues es éste el que hace el "nexo" de todo.

La web está inundada de contenidos en forma desordenada y anárquica. Los “portales temáticos” ofrecen el "saber humano" en diferentes formatos (XML, texto ASCII, ODF, PHP, HTML, RTF, PDF, DOC, PPS/PPT, XLS, etc.), a veces clasificados por palabras clave que ni siquiera siguen normas bibliográficas estándar o codificaciones internacionales.

Catálogo Descriptores

Catálogo Descriptores

Ejemplo de estándar internacional de codificación CIE10 para medicina (fuente: TNG Consultores)

Por ejemplo, si un Ginecólogo desea buscar material bibliográfico sobre “anticonceptivos para el día después”, podrá utilizar bibliotecas médicas poderosas como MedLine, ingresar al portal de un Laboratorio Farmacéutico determinado o simplemente hacer uso de un motor de búsqueda tal como los proporcionados por Google, Yahoo o Altavista. ¿Cuáles son los posibles problemas al recuperar esta información?:

1. Le llegan cientos o miles de links hacia información de calidad buena, mala o regular. Esto fastidia bastante al Usuario Final pues comprueba una y otra vez que la web es poderosa, enorme… pero a menudo impráctica. Uno de los objetivos de este proyecto (componentes DKW) es que “el web se dirija al Usuario y no al revés, simplemente con un clic u orden verbal” (Fase 2).

2. El formato de la información obtenida podrá incluir texto, imágenes y hasta audio y video, pero debe recuperarla y clasificarla manualmente por tipo de objeto.

3. Si su objetivo es simplemente el de escribir una tesis, seleccionará los contenidos que crea interesantes.

Pero, ¿y el resto del material acopiado?.

 4. Partamos de la base de que el Usuario ha grabado las páginas que le interesaban en su disco. ¿Cómo las recuperará fácilmente? Si el Usuario es de conocimiento medio (como la inmensa mayoría de los Usuarios autodidactas), habrá grabado las páginas en carpetas temáticas. Pero si se trata de un Usuario avanzado, utilizará una base de datos documental multimedia que, a través de links, generará catálogos automáticos para una rápida recuperación por palabras clave (descriptores, keywords), autores, títulos, fragmentos de texto, etc.

Hasta aquí hemos hablado de “Contenidos Tradicionales” en un sentido compatible con bibliografía.

2. Definición

Qué es un DKW?


En la figura anterior observamos el concepto de cómo se puede generar un componente DKW (Data Knowledge Component). Necesitamos un "recipiente contenedor" y datos. 



El lenguaje XML nos permite transmitir "formatos" y "datos" con semántica para su interpretación y validación (CDA en medicina es uno de tantos ejemplos DTD) y ya existen bases de datos nativas XML. La tecnología está lista para los DKW.

Un "cluster DKW" es una sistema de almacenamiento de componentes DKW temáticos, controlado por un servidor KIP. Puede transmitir, además de datos concretos, el conocimiento HKW/SKW involucrado, o una referencia/link a dónde se encuentra.

Red KW

En una receta de cocina para el hogar digital, el componente DKW de dicha receta debe especificar ingredientes, forma de preparación y parámetros para los "drivers" de los electrodomésticos que serán utilizados. Todos estos datos son ejecutados a través del servidor KIP hogareño.

Cualquier tipo de comunidad (abierta o cerrada) podrá crear y almacenar sus componentes DKW en clusters controlados por servidores KIP.

3. Construcción

Los pasos para la construcción de componentes DKW pueden ser los siguientes: 

1. Elección del "conocimiento" a utilizar. Esto es cargar en el framework del Usuario Final el componente HKW/SKW que se corresponde con los datos a cargar.

2. "Alineación". Esto significa utilizar los estándares de codificación sectorial y/o los datos en el formato adecuado. Algunos de estos datos serán OIDs (identificadores universales de objetos).

3. Especificar si el DKW integrará el "conocimiento" HKW/SKW o simplemente se incluirá la referencia/link al mismo.

4. Grabar el DKW. Este DKW puede quedar en la base de datos local o puede cargarse en el cluster del KIP comunitario.

5. Opcionalmente, podrá ejecutar una "sinapsis" para recuperar y analizar conocimiento relacionado con el DKW recién creado. Esto puede generar uno o varios componentes SKW, que podrán tener sentido o no.

Existen hoy en el mercado muchas empresas altamente especializadas en generar catálogos temáticos, sectoriales y multimedia general para los medios de comunicación. Estas empresas poseen lo que da en llamarse el "Departamento de Contenidos", que cumplen en general dos funciones básicas:

A. Crean los contenidos (futuros componentes DKW) de los productos y servicios ofrecidos en un formato aceptable por el mercado.

B. Colaboran en la "alineación" de estos contenidos con los estándares sugeridos por la cadena de valor a la que pertenecen. Esto es imprescindible para lograr la "conexión" y el siguiente paso: interoperabilidad.

Comunidades, redes sociales, empresas o profesionales independientes pueden necesitar estos servicios para conectarse con su cadena de valor. Actualmente estos servicios de construcción de contenidos y alineación facturan mucho más que el tráfico de red utilizado.

La tecnología DKW puede cambiar totalmente este escenario.

4. Estrategia de Difusión

DKW y los Departamentos de Contenidos: Un componente DKW empaqueta datos puntuales y, opcionalmente, la lógica HKW y/o SKW relacionada (por ejemplo, un texto XML con datos y semántica para su interpretación y validación). Un DKW es, pues, datos e información sobre productos, servicios, personas, procesos, logística, bibliografía, noticias, redes sociales y/o comunidad.

  • IMPORTANTE: La tecnología DKW no contradice ni intenta cambiar los estándares sectoriales, internacionales y/o desarrollados por el propio Usuario (esto significa que el formato de los datos dentro del cuerpo de un paquete DKW puede seguir cualquier normativa). 
  • El rol del Dpto. de Contenidos es tanto o más importante que la tecnología involucrada. Es necesario plantear la facilidad de conversión para los datos e información ya existentes sobre productos y servicios del Usuario y que, por otra parte, han requerido un enorme coste a lo largo del tiempo. En todo momento se debe respetar la inversión en IT que ya ha desarrollado el Usuario. 
  • La tecnología HKW/SKW/DKW/KIP incrementa la productividad de lo que el Usuario ya tiene en su empresa o comunidad, significando un gran cambio en el rendimiento de la infraestructura informática que utiliza. Es ponerlo al día con lo que él siempre percibió como el ruido de la “era de la información”. 
  • Los diferentes Dptos. de Contenidos Sectoriales desarrollarán campañas concretas para los Usuarios, colaborando en la creación de componentes HKW y DKW para ellos. Esta política debe ser aplicada a aquellos Usuarios considerados “visagra” (redes sociales, laboratorios farmacéuticos, grandes superficies comerciales, telefónicas y fabricantes con grandes redes comerciales). Si un gran comprador integra la tecnología KW, toda su cadena de valor se volcará también.  
  • Una importante estrategia consiste en crear, en el seno de la “Fundación KW” local, comités sectoriales para “democratizar” el aporte de cada actor (individuo en una red social, fabricante, importador, distribuidor, comerciante, desarrollador de software, representante del estándar sectorial, delegados de los bancos, representante de consumidores y del Estado). Este comité “validará” la tecnología en forma natural y eficiente. De esta forma hay una congruencia entre la “filosofía KW” y las acciones de implantación de la misma (los clusters de conocimiento resultantes tendrán una doble certificación, la de “KW Compatible” y la del comité del sector de actuación). 

Los actuales proveedores de contenidos del mercado podrán distribuir sus productos de una forma más granular y eficiente. El mercado que se les abre es más grande y ambicioso que el que tienen actualmente. La proactividad de sus componentes DKW con las aplicaciones informáticas les genera un nuevo modelo/unidad de negocios y, por sobre todas las cosas, podrán evitar la piratería con medios mucho más fiables que los actuales.

Imagen de System Administrator

DNA Machines (DNA)

de System Administrator - lunes, 1 de julio de 2013, 12:53

DNA Machines Inch Forward

Researchers are using DNA to compute, power, and sense.

By Sabrina Richards | March 5, 2013

Advances in nanotechnology are paving the way for a variety of “intelligent” nano-devices, from those that seek out and kill cancer cells to microscopic robots that build designer drugs. In the push to create such nano-sized devices, researchers have come to rely on DNA. With just a few bases, DNA may not have the complexity of amino acid-based proteins, but some scientists find this minimalism appealing.

“The rules that govern DNA’s interactions are simple and easy to control,” explained Andrew Turberfield, a nanoscientist at the University of Oxford. “A pairs with T, and C pairs with G, and that’s basically it.” The limited options make DNA-based nanomachines more straightforward to design than protein-based alternatives, he noted, yet they could serve many of the same functions. Indeed, the last decade has seen the development of a dizzying array of DNA-based nanomachines, including DNA walkers, computers, and biosensors.

Furthermore, like protein-based machines, the new technologies rely on the same building blocks that cells use. As such, DNA machines “piggyback on natural cellular processes and work happily with the cell,” said Timothy Lu, a synthetic biologist at the Massachusetts Institute of Technology (MIT), allowing nanoscientists to “think about addressing issues related to human disease.”

Walk the line

One of the major advancements of DNA nanotechnology is the development of DNA nanomotors—miniscule devices that can move on their own. Such autonomously moving devices could potentially be programmed to carry drugs directly to target tissues, or serve as tiny factories by building products like designer drugs or even other nanomachines.

DNA-based nanomachines rely on single-stranded DNA’s natural tendency to bind strands with complementary sequences, setting up tracks of DNA to serve as toeholds for the single-stranded feet of DNA walkers. In 2009, Nadrian Seeman’s team at New York University built a tiny DNA walker comprised of two legs that moved like an inch worm along a 49-nanometer-long DNA path. 

But to direct drugs or assemble useful products, researchers need DNA nanomachines to do more than move blindly forward. In 2010, Seeman created a DNA walker that served as a “nanoscale assembly line” to construct different products. In this system, a six-armed DNA walker shaped like a starfish somersaulted along a DNA track, passing three DNA way stations that each provided a different type of gold particle. The researchers could change the cargo stations conformations to bring the gold particles within the robot’s reach, allowing them to get picked up, or to move them farther away so that the robot would simply pass them by.

“It’s analogous to the chassis of a car going down an assembly line,” explained Seeman. The walker “could pick up nothing, any one of three different cargos, two of three different, or all three cargos,” he said—a total of 8 different products.

And last year, Oxford’s Turberfield added another capability to the DNA walker tool box: navigating divergent paths. Turberfield and his colleagues created a DNA nanomotor that could be programmed to choose one of four destinations via a branching DNA track. The track itself could be programmed to guide the nanomotor, and in the most sophisticated version of the system, Turberfield’s nanomachine carried its own path-determining instructions.

Next up, Turberfield hopes to make the process “faster and simpler” so that the nanomotor can be harnessed to build a biomolecule. “The idea we’re pursuing is as it takes a step, it couples that step to a chemical reaction,” he explained. This would enable a DNA nanomotor to string together a polymer, perhaps as a method to “build” drugs for medical purposes, he added.

DNA-based biosensing

DNA’s flexibility and simplicity has also been harnessed to create an easily regenerated biosensor. Chemist Weihong Tan at the University of Florida realized that DNA could be used to create a sensor capable of easily switching from its “on” state back to its “off” state. As proof of principle, Tan and his team designed biosensor switches by attaching dye-conjugated silver beads to DNA strands and studding the strands onto a gold surface. In the “off” state, the switches are pushed upright by extra DNA strands that fold around them, holding the silver beads away from the gold surface. These extra “off”-holding strands are designed to bind to the target molecule—in this case ATP—such that adding the target to the system coaxes the supporting strands away from the DNA switches. This allows the switch to fold over, bringing the silver bead within a few nanometers of the gold surface and creating a “hotspot” for Raman spectroscopy —the switch’s “on” state.

Previous work on creating biosensors based on Raman spectroscopy, which measures the shift in energy from a laser beam after it’s scattered by individual molecules, created irreversible hotspots. But Tan can wash away the ATP and add more supporting strands to easily ready his sensor for another round of detection, making it a re-usable technology.

Though his sensor is in its early stages, Tan envisions designing biosensors for medical applications like cancer biomarker detection. By using detection strands that bind directly to a specific cancer biomarker, biosensors based on Tan’s strategy would be able to sensitively detect signs of cancer without need for prior labeling with radionuclides or fluorescent dyes, he noted.

Computing with DNA

Yet another potential use for DNA is in data storage and computing, and researchers have recently demonstrated the molecule’s ability to store and transmit information. Researchers at Harvard University recently packed an impressive density of information into DNA—more than 5 petabits (1,000 terabits) of data per cubic millimeter of DNA—and other scientists are hoping to take advantage of DNA’s ability to encode instructions for turning genes on and off to create entire DNA-based computers.

Although it’s unlikely that DNA-based computing will ever be as lightning fast as the silicon-based chips in our laptops and smartphones, DNA “allows us to bring computation to other realms where silicon-based computing will not perform,” said MIT’s Lu—such as living cells.

In his latest project, published last month (February 10) in Nature Biotechnology, Lu and his colleagues used Escherichia coli cells to design cell-based logic circuits that “remember” what functions they’ve performed by permanently altering DNA sequences. The system relies on DNA recombinases that can flip the direction of transcriptional promoters or terminators placed in front of a green fluorescent protein (GFP) gene. Flipping a backward-facing promoter can turn on GFP expression, for example, as can inverting a forward-facing terminator. In contrast, inverting a forward-facing promoter or a backward-facing terminator can block GFP expression. By using target sequences unique to two different DNA recombinases, Lu could control which promoters or terminators were flipped. By switching the number and direction of promoters and terminators, as well as changing which recombinase target sequences flanked each genetic element, Lu and his team induced the bacterial cells to perform basic logic functions, such as AND and OR.

Importantly, because the recombinases permanently alter the bacteria’s DNA sequence, the cells “remember” the logic functions they’ve completed—even after the inputs are long gone and 90 cell divisions have passed. Lu already envisions medical applications relying on such a system. For example, he speculated that bacterial cells could be programmed to signal the existence of tiny intestinal bleeds that may indicate intestinal cancer by expressing a dye in response to bloody stool. Such a diagnostic tool could be designed in the form of a probiotic pill, he said, replacing more invasive procedures.

Applications based on these studies are still years away from the bedside or the commercial market, but researchers are optimistic. “[It’s] increasingly possible to build more sophisticated things on a nanometer scale,” said Turberfield. “We’re at very early stages, but we’re feeling our way.”

Imagen de System Administrator

DNA Storage (DNA)

de System Administrator - miércoles, 26 de junio de 2013, 22:06

DNA storage is the process of encoding and decoding binary data onto and from synthesized strands of DNA (deoxyribonucleic acid). In nature, DNA molecules contain genetic blueprints for living cells and organisms.

To store a binary digital file as DNA, the individual bits(binary digits) are converted from 1 and 0 to the letters A, C, G, and T. These letters represent the four main compounds in DNA: adenine, cytosine, guanine, and thymine. The physical storage medium is a synthesized DNA molecule containing these four compounds in a sequence corresponding to the order of the bits in the digital file. To recover the data, the sequence A, C, G, and T representing the DNA molecule is decoded back into the original sequence of bits 1 and 0.

Researchers at the European Molecular Biology Laboratory (EMBL) have encoded audio, image, and text files into a synthesized DNA molecule about the size of a dust grain, and then successfully read the information from the DNA to recover the files, claiming 99.99 percent accuracy.

An obvious advantage of DNA storage, should it ever become practical for everyday use, would be its ability to store massive quantities of data in media having small physical volume. Dr. Sriram Kosuri, a scientist at Harvard, believes that all the digital information currently existing in the world could reside in four grams of synthesized DNA.

A less obvious, but perhaps more significant, advantage of DNA storage is its longevity. Because DNA molecules can survive for thousands of years, a digital archive encoded in this form could be recovered by people for many generations to come. This longevity might resolve the troubling prospect of our digital age being lost to history because of the relative impermanence of optical, magnetic, and electronic media.

The principal disadvantages of DNA storage for practical use today are its slow encoding speed and high cost. The speed issue limits the technology's promise for archiving purposes in the near term, although eventually the speed may improve to the point where DNA storage can function effectively for general backup applications and perhaps even primary storage. As for the cost, Dr. Nick Goldman of the EMBL suggests that by the mid-2020s, expenses could come down to the point where the technology becomes commercially viable on a large scale.

This was last updated in April 2013

Contributor(s): Stan Gibilisco

Posted by: Margaret Rouse
Imagen de System Administrator

DNA-based Data Storage (DNA)

de System Administrator - miércoles, 26 de junio de 2013, 22:26

DNA-based Data Storage Here to Stay

The second example of storing digital data in DNA affirms its potential as a long-term storage medium.

Researchers have done it again—encoding 5.2 million bits of digital data in strings of DNA and demonstrating the feasibility of using DNA as a long-term, data-dense storage medium for massive amounts of information. In the new study released today (January 23) in Nature, researchers encoded one color photograph, 26 seconds of Martin Luther King Jr.’s “I Have a Dream” speech, and all 154 of Shakespeare’s known sonnets into DNA.

Though it’s not the first example of storing digital data in DNA, “it’s important to celebrate the emergence of a field,” said George Church, the Harvard University synthetic biologist whose own group published a similar demonstration of DNA-based data storage last year in Science.  The new study, he said, “is moving things forward.”

Scientists have long recognized DNA’s potential as a long-term storage medium. “DNA is a very, very dense piece of information storage,” explained study author Ewan Birney of the European Molecular Biology Laboratory-European Bioinformatics Institute (EMBL-EBI) in the UK. “It’s very light, it’s very small.” Under the correct storage conditions—dry, dark and cold—DNA easily withstands degradation, he said.

Advances in synthesizing defined strings of DNA, and sequencing them to extract information, have finally made DNA-based information storage a real possibility. Last summer, Church’s group published the first demonstration of DNA’s storage capability, encoding the digital version of Church’s bookRegenesis, which included 11 JPEG images, into DNA, using Gs and Cs to represent 1s of the binary code, and As and Ts to represent 0s.

Now, Birney and his colleagues are looking to reduce the error associated with DNA storage. When a strand of DNA has a run of identical bases, it’s difficult for next-generation sequencing technology to correctly read the sequence. Church’s work, for example, produced 10 errors out of 5.2 million bits. To prevent these types of errors, Birney and his EMBL-EBI collaborator Nick Goldman first converted each byte—a string of eight 0s and 1s—into a single “trit” made up of 5 or 6 digits of 0s, 1s, and 2s. Then, when converting these trits into the A, G, T and C bases of DNA, the researchers avoided repeating bases by using a code that took the preceding base into account when determining which base would represent the next digit.

The synthesizing process also introduces error, placing a wrong base for every 500 correct ones. To reduce this type of error, the researchers synthesized overlapping stretches of 117 nucleotides (nt), each of which overlapped with preceding and following strands, such that all data points were encoded four times. This effectively eliminated reading error because the likelihood that all four strings have identical synthesis errors is negligible, explained Birney.

Agilent Technologies in California synthesized more than 1 million copies of each 117-nt stretch of DNA, stored them as dried powder, and shipped it at room temperature from the United States to Germany via the UK. There, researchers took an aliquot of the sample, sequenced it using next-generation sequencing technology, and reconstructed the files.

Birney and Goldman envision DNA replacing other long-term archival methods, such as magnetic tape drives. Unlike other data storage systems, which are vulnerable to technological obsolescence, “methods for writing and reading DNA are going to be around for a long, long time,” said molecular biologist Thomas Bentin of the University of Copenhagen. Bentin, who was not involved in the research, compared DNA information storage to the fleeting heyday of the floppy disk—introduced only a few decades ago and already close to unreadable.  And though synthesizing and decoding DNA is currently still expensive, it is cheap to store. So for data that are intended to be stored for hundreds or even thousands of years, Goldman and Birney reckon that DNA could actually be cheaper than tape.

Additionally, there’s great potential to scale up from the 739 kilobytes encoded in the current study. The researchers calculate that 1 gram of DNA could hold more than 2 million megabytes of information, though encoding information on this scale will involve reducing the synthesis error rate even further, said bioengineer Mihri Ozkan at the University of California, Riverside, who did not participate in the research.

Despite the challenges that lie ahead, however, the current advance is “definitely worth attention,” synthetic biologist Drew Endy at Stanford University, who was not involved in the research, wrote in an email to The Scientist. “It should develop into a new option for archival data storage, wherein DNA is not thought of as a biological molecule, but as a straightforward non-living data storage tape.”

N. Goldman et al., “Towards practical, high-capacity, low-maintenance information storage in synthesized DNA,” Nature, doi: 10.1038/nature.11875, 2013.

Imagen de System Administrator

Doble personalidad o dual persona (gestión de dispositivos móviles)

de System Administrator - viernes, 5 de septiembre de 2014, 21:33

Gestión de dispositivos móviles: Doble personalidad o dual persona

Publicado por: Margaret Rouse

La personalidad doble, en un contexto de gestión de móviles, es el aprovisionamiento y mantenimiento de dos entornos de usuario final, separados e independientes, en un solo dispositivo móvil. Por lo general, el primer ambiente es personal y el segundo es para el trabajo.

El objetivo de la gestión de aplicaciones móviles (MAM) de doble personalidad es proporcionar a una organización una forma de mantener las aplicaciones corporativas y sus datos asociados separados y protegidos en el dispositivo móvil personal de un empleado. Para proteger la privacidad del usuario final, el departamento de TI solo puede ver y gestionar los activos en el entorno empresarial. Si un empleado deja la empresa, el entorno empresarial se puede limpiar, dejando los datos y aplicaciones personales del empleado intactos. La tecnología de doble personalidad aborda uno de los retos de la tendencia de traer su propio dispositivo: la forma de ejercer el control de TI sobre los dispositivos personales de los empleados sin violar su derecho a la privacidad.

Un enfoque hacia la doble personalidad es la virtualización móvil, que utiliza un hipervisor para dividir los recursos de hardware entre dos sistemas operativos en el mismo dispositivo.VMware Horizon Mobile para Android es un ejemplo de un producto de virtualización móvil.

Otro enfoque requiere que el empleado descargue e instale un cliente móvil que crea un entorno de solo de trabajo aislado, llamado contenedor. El contenedor, que se pone en marcha como cualquier otra aplicación móvil, permite a los administradores establecer políticas seguras para el lado de trabajo del dispositivo que no interfieran con el lado personal del dispositivo. Tales políticas de seguridad incluyen protección por contraseña, limpieza y especificaciones remotas para establecer en qué momentos del día se puede acceder al contenedor de trabajo. AT&T Toggle es un ejemplo de este enfoque de doble personalidad.

Además de proteger los datos corporativos, una de las mayores preocupaciones con la administración de dispositivos móviles (MDM) de doble personalidad es la facilidad de uso. A medida que la línea entre la vida personal y profesional de las personas se desdibuja, existen dudas sobre si los usuarios de dispositivos móviles estarán dispuestos a alternar entre dos entornos móviles.

TÉRMINOS DE GLOSARIO RELACIONADOS: Transformación de TI Computación contextualCRM (Gestión de relaciones con los clientes)FemtoceldaTraiga sus propias aplicaciones (BYOA)

Imagen de System Administrator

Documentación (CALIDAD)

de System Administrator - jueves, 9 de mayo de 2013, 01:04


Información: Datos que poseen significado.

Documento: Información y su medio de soporte.

Especificación: Documento que establece requisitos.

Manual de calidad: Documento que especifica el sistema de gestión de la calidad de una organización.

Plan de calidad: Documento qué específica que procedimientos y recursos asociados deben aplicarse, quién debe aplicarlos y cuándo deben aplicarse a un proyecto, producto o contrato específico.

Registro: Documento que presenta resultados obtenidos o proporciona evidencia de actividades desempeñadas.

Imagen de System Administrator


de System Administrator - domingo, 31 de marzo de 2013, 19:10

DOS es una familia de sistemas operativos para PC.

El nombre es la sigla de Disk Operating System (sistema operativo de disco). Fue creado originalmente para computadoras de la familia IBM PC, que utilizaban los procesadores Intel 8086 y 8088, de 16 bits y 8 bits, respectivamente, siendo el primer sistema operativo popular para esta plataforma. Contaba con una interfaz de línea de comandos en modo texto o alfanumérico, con su propio intérprete de órdenes: COMMAND.COM.

Probablemente la más popular de sus variantes sea la perteneciente a la familia MS-DOS®, de Microsoft®. La misma era suministrada con buena parte de los ordenadores compatibles con IBM PC, en especial aquellos de la familia Intel, como sistema operativo independiente o nativo. El MS-DOS llegó hasta hasta la versión 6.22 (bien entrados los 90’s), frecuentemente adjunto a una versión de la interfaz gráfica MS-Windows de 16 bits (3.1x).

En las versiones nativas de Windows®, basadas en NT (Windows NT, 2000, 2003, XP, Vista, 7, 8) MS-DOS desaparece como sistema operativo propiamente dicho (entorno base, desde el que se arrancaba el equipo y sus procesos básicos, pasando luego a ejecutar y cargar la inferfaz gráfica o entorno operativo de Windows). Todo vestigio del mismo queda relegado, en tales versiones, a la existencia de un simple intérprete de comandos, denominado Símbolo del Sistema, ejecutado como aplicación mediante cmd.exe, a partir del propio entorno gráfico (elevado ahora a la categoría de sistema operativo).

Esto no es así en las versiones no nativas de Windows, que sí están basadas en MS-DOS, cargándose a partir del mismo. Desde Windows 1.0x a la 3.11, de 16 bits, MS-Windows tuvo el planteamiento de una simple aplicación de interfaz o entorno gráfico, complementaria al propio intérprete de comandos, desde el que era ejecutado. Fue a partir de las versiones de 32 bits, de nuevo diseño y mayor potencia, basadas en Windows 95 y 98, cuando el MS-DOS comienza a ser deliberadamente camuflado por el propio entorno gráfico de Windows durante el proceso de arranque, dando paso, por defecto, a su automática ejecución. Esto acapara la atención del Usuario medio y atribuye al antiguo sistema operativo un papel más dependiente y secundario, llegando a ser por muchos olvidado y desconocido. El mismo ha sido paulatinamente abandonado por los desarrolladores de software y hardware, empezando por la propia Microsoft. Sin embargo, en tales versiones de 32 bits Windows no funcionaba de forma autónoma como sistema operativo. Tanto es así que varias de las funciones primarias o básicas del sistema, como su arranque, tenían en su base a los distintos módulos y archivos de sistema que componían el modesto armazón del DOS, tales como IO.SYS, DRVSPACE. BIN, EMM386.EXE e HIMEM.SYS.

Existen varias versiones de DOS. El más conocido de ellos es el MS-DOS, de Microsoft (de ahí las iniciales MS). Otros sistemas son el PC-DOS, de IBM, el DR-DOS, de Digital Research, que pasaría posteriormente a Novell (Novell DOS 7.0), luego a Caldera y finalmente a DeviceLogics. Más recientemente, tenemos el FreeDOS, de licencia libre y código abierto. Éste último puede hacer las veces, en su versión para Linux/UNIX, de emulador del DOS bajo sistemas de este tipo.

Imagen de System Administrator


de System Administrator - lunes, 6 de julio de 2015, 20:38

7 Critical Questions to Demystify DRaaS

This whitepaper is not a sermon on Disaster Recovery and whyyou need it. You don’t need a lesson in the perils of disasters or a theoretical “business case” that proves unpredictable events can damage your data and cost you thousands of dolllars. In fact,if you were not already aware of the need for Disaster Recovery you probably would not be reading this document.
Please read the attached whitepaper.
Imagen de System Administrator


de System Administrator - miércoles, 5 de junio de 2013, 18:51

Las fallas de hardware y los errores humanos todavía son uno de los principales problemas de las empresas en cuanto a costos IT se refiere. Por este motivo, contar con una solución de recuperación de desastres nunca está de más. Con ella, además de salvar toda la información corporativa importante, es posible plantear una estrategia eficaz de seguridad. En definitiva, las soluciones DRaaS se convierten en una herramienta prácticamente vital para cualquier organización sin importar su tamaño ya que, como todo, la tecnología puede fallar en el momento menos oportuno.

Imagen de System Administrator

Driver-Based Planning

de System Administrator - viernes, 8 de mayo de 2015, 21:02

Driver-Based Planning

Posted by: Margaret Rouse

Driver-based planning is an approach to management that identifies an organization's key business drivers and creates a series of business plans that mathematically model how those things most necessary for the organization's success would be affected by different variables.

The goal of driver-based planning is to focus business plans upon the criteria that are most capable of driving success. Identifying those key business drivers can be tricky if done in a subjective manner, however, and individuals within the same organization may have very different perceptions about what the key drivers for success are. This is why forecasting business drivers objectively through a mathematical model can be helpful. The models may be created with spreadsheets or with more advanced data modeling software applications. 

The concept of driver-based planning was used to great effect in the movie MoneyBall. The film, which was based on a book by Michael Lewis, illustrated how a Major League Baseball team's assistant general manager used statistical analysis to identify the organization's key drivers for success. The analysis, which clearly showed that on-base percentage should be a key driver for player selection, changed the way the team's general manager approached planning and allowed his team to successfully compete against other teams with more financial resources.

See also: corporate performance management, Cognos, descriptive modeling, predictive modeling

Related Terms


  • de-anonymization (deanonymization)

    - De-anonymization is a method used to detect the original data that was subjected to processes to make it impossible -- or at least harder -- to identify the personally identifiable information (PII... (

  • data anonymization

    - The purpose of data anonymization is to make its source untraceable. Data anonymization processes include encryption, substitution, shuffing, number and data variance and nulling out data. (

  • change management

    - Change management is a systematic approach to dealing with change, both from the perspective of an organization and on the individual level. (


  • Business intelligence - business analytics

    - Terms related to business intelligence, including definitions about business analytics and words and phrases about gathering, storing, analyzing and providing access to business data.

  • Internet applications

    - This glossary contains terms related to Internet applications, including definitions about Software as a Service (SaaS) delivery models and words and phrases about web sites, e-commerce ...

Imagen de System Administrator


de System Administrator - viernes, 3 de marzo de 2017, 09:07


Posted by: Margaret Rouse | Contributor(s): Ivy Wigmore

A dronie is a self-portrait photograph (selfie) still or, more commonly, video captured by a camera attached to a personal drone.

Drones, more formally known as unmanned aerial vehicles (UAV), are essentially flying robots. They can be remotely controlled or can fly autonomously through software-controlled flight plans in their embedded systems working in conjunction with GPS.

Drone photography makes it possible to capture images and video content that might not be otherwise possible for human photographers and videographers. Drones can be equipped with computer vision, face recognitiongesture recognition and and artificial intelligence (AI) that makes it possible for them to follow the user while they walk around or travel in a vehicle and respond to commands. That capacity could be especially useful for drone journalism.

 See also: drone surveillance

See a compilation of dronies:


Imagen de System Administrator

DSL Vs. Cable High-Speed Internet

de System Administrator - jueves, 2 de abril de 2015, 13:46

DSL Vs. Cable High-Speed Internet

For today’s businesses, fast Internet access is more than a competitive advantage. It is an operational necessity. Changes in the way companies are working – and the tools they are using – have created the need for high-speed connections to services and individuals off-site. Across the country, in-house servers are rapidly being replaced by cloud-based infrastructure. Videoconferencing is helping businesses cut travel costs. Mobile devices – with easy links to work-related content – are enabling more employees to be more productive, from any location. All of these applications have one factor in common: they require bandwidth. And plenty of it. Download this white paper to learn more about high-speed internet connections.
Please read the attached whitepaper.
Imagen de System Administrator


de System Administrator - sábado, 20 de junio de 2015, 14:57


Posted by: Margaret Rouse

DuckDuckGo (DDG) is a general search engine designed to protect user privacy, while avoiding the skewing of search results that can happen because of personalized search (sometimes referred to as a filter bubble).

DDG does not track users – user IP addresses and other information are not logged. A log of search terms entered is maintained but the terms are not associated with particular users. Because DuckDuckGo does not record user information, it has no data to turn over to any third-party organizations.

Unlike Google, DuckDuckGo does not default to personalized search, which constrains search results based on information related to the user, such as location, preferences and history. Users may opt to boost results based on locality, for example, but it will not be done unless they specify that they want it to be. Results that appear to be from content mills are also filtered out of search engine results pages (SERP).

DuckDuckGo is sometimes referred to as a hybrid search engine because it compiles results from a variety of sources including its own crawler, DuckDuckBot, crowd-sourced sites such as Wikipedia, and partnerships with other search providers including Yahoo!, Yandex, Yelp, and Bing. 

Instant answers, which appear at the top of the results page, are available for queries involving many types of searches, including flight statuses, recipes, rhyming words, calculations and statistics -- among a wide variety of other possibilities. Instant answers also include functions, such as a stopwatch and a strong password generator.

The !bang feature allows users to search a particular website.  Typing “!Facebook” before a search term, for example, restricts the results to those found on that site.

DuckDuckGo was founded by Gabriell Weinberg in September 2008. Initially funded by Weinberg, the search engine received $3 million in venture capital in 2011 and is now supported by keyword-based advertising. The company’s headquarters are in Paoli, Pennsylvania.

DuckDuckGo is available in most browsers, including Chrome, Firefox and Safari.

Tekzilla compares DuckDuckGo and Google search:

Part of the Software applications glossary


Imagen de System Administrator

Dynamic Pricing

de System Administrator - martes, 4 de noviembre de 2014, 20:24

Dynamic Pricing

Posted by: Margaret Rouse

Dynamic pricing, also called real-time pricing, is an approach to setting the cost for a product or service that is highly flexible. The goal of dynamic pricing is to allow a company that sells goods or services over the Internet to adjust prices on the fly in response to market demands. 

Changes are controlled by pricing bots, which are software agents that gather data and usealgorithms to adjust pricing according to business rules. Typically, the business rules take into account such things as the customer's location, the time of day, the day of the week, the level of demand and competitors' pricing.  With the advent of big data and big data analytics, however, business rules for price adjustments can be made more granular. By collecting and analyzing data about a particular customer, a vendor can more accurately predict what price the customer is willing to pay and adjust prices accordingly.

Dynamic pricing is legal, and the general public has learned to accept dynamic pricing when purchasing airline tickets or reserving hotel rooms online.  The approach, which is sometimes marketed as a personalization service, has been less successful with online retail vendors. Dynamic pricing can be contrasted with fixed pricing, an approach to setting the selling price for a product or service that does not fluctuate.


See also: fair and reasonable priceconsumption-based pricing model

Related Terms


  • employee advocacy

     - Employee advocacy is the promotion of an organization by its staff members. A business may ask employees to actively promote the organization, often through social media, as an element of their job... (

  • critical success factors

     - Critical success factors are a limited number of key variables or conditions that have a tremendous impact on how successfully and effectively an organization meets its mission or the strategic goa...(

  • unsystemic risk (unsystematic risk)

     - Unsystemic risk (also known as unsystematic risk) is a type of investment risk that is specific to an industry or organization. (


  • Business terms

     - Terms related to business, including definitions about project management and words and phrases about human resources, finance and vertical industries.

  • Internet applications

     - This glossary contains terms related to Internet applications, including definitions about Software as a Service (SaaS) delivery models and words and phrases about web sites, e-commerce ...



Imagen de System Administrator


de System Administrator - jueves, 2 de mayo de 2013, 21:37
Imagen de System Administrator


de System Administrator - jueves, 11 de julio de 2013, 17:15
Imagen de System Administrator


de System Administrator - lunes, 6 de mayo de 2013, 00:30
Imagen de System Administrator


de System Administrator - jueves, 2 de mayo de 2013, 22:16



E-businessE-mailE-tailerE-tailingE.bizE1E3Economato virtualEconomía digitalEDGEEDIEditorEDMEgosurfingEKMElectronic MallEmoticonEn construcciónEncaminadorEncargado del TratamientoEncriptaciónEngage,EnlaceEnlace asociativoEnlace de estructura de navegaciónEnlace de textoEnlace externoEnlace publicitarioEnlace rotoEnlazarEnmascaramientoES-NICEscaparate electrónicoEspacio de colaboraciónEspacio publicitario,Espacio webEspejoEstantería de archivosEstereoscopíaEstornudoEstrategiaEthernetEtiquetaExperiencia de usuarioExternalizaciónExtranetEzine.


=> E-business: Expresión inglesa que define a los negocios basados en Internet. Es decir, el conjunto de actividades que se centran en los diferentes aspectos comerciales de la Red.

=> E-mail: Contracción de las palabras inglesas "electronic" y "mail", es decir, correo electrónico. Sistema que permite intercambiar electrónicamente mensajes con estructura de carta (género epistolar) a través de la Red.

=> E-tailer: Comerciante detallista que centra su actividad en Internet. Su medio de relacionarse con el consumidor es a través del correo electrónico. En el mundo del coleccionismo y de los productos altamente especializados los e-tailers tienden ya a afectar a los minoristas o "retailers".

=> E-tailing: Venta detallista de bienes por Internet. Por ejemplo, el sitio web de barro cocido y pavimientos de la empresa Cerámicas García Morón de Jaén (España).

=> Expresión inglesa utilizada para definir los negocios en la Red.

=> E1: Estándar Europeo equivalente al americano T1 que es el modo abreviado de denominar al Transmisión Service Level 1 en inglés o Servicio de Transmisión de Nivel 1. Conexión permanente con una línea de datos con capacidad para transportar a la vez hasta 1,544 Mbps.

=> E3: Estándar Europeo equivalente al americano T3 que es el modo abreviado de denominar al Transmisión Service Level 3 en inglés o Servicio de Transmisión de Nivel 3. Conexión permanente con una línea de datos con capacidad para transportar a la vez hasta 44,736 Mbps.

=> Economato virtual: Tienda virtual a la que sólo se puede acceder desde una intranet. Algunas multinacionales (y organismos como pueda ser el Ejercito norteamericano) disponen en su sitio webinterno de un economato donde los empleados pueden comprar algunos productos con el precio de un buen cliente más unos descuentos que rondan el 30 por ciento.

=> Economía digital: Parcela de la economía que aglutina al conjunto de actividades desarrolladas en el mercado electrónico.

=> EDGE: Siglas de las palabras inglesas: Enhanced data GSM enviroment, es decir, entorno mejorado de datos GSM. Hay quien la palabra “enviroment” la sustituye por “evolution”, es decir, evolución. Se trata de una versión mejorada del sistema GSM de telefonía móvil que logra mayor velocidad de transmisión ya que permite el transporte de mensajes a través de redes de banda ancha. Al parecer el sistema EDGE lo propuso inicialmente la compañía Ericsson con un doble objetivo. Por una parte ir adaptando la red GSM a UMTS y por la otra para poder ofrecer una alternativa de transmisión de datos a alta velocidad a las compañías que no habían conseguido licencia UMTS.

=> EDI: Intercambio Electrónico de datos. Sistema mediante el cual, de modo seguro, las empresas realizan transacciones entre ellas. Se trata de un servicio informático caro de mantener y cerrado, de ahí que ahora comiencen a prosperar otras alternativas basadas en Internet.

=> Editor: En Internet este término tiene varias acepciones. Por una parte define a cualquier programa que puede crear o modificar archivos de un tipo determinado. Por ejemplo, existen editores para crear páginas web realizadas en HTML como el Aracnophilia o el Front Page y numerosos editores de archivos MP3. Por otra parte, Editor es el nombre que recibe la persona responsable final de los contenidos de unsitio web y también quien esta al frente de un boletín electrónico o de un Ezine.

=> EDM: Siglas de las palabras inglesas: Electronic Document Management. Es decir: gestión por medios informáticos del ciclo completo de vida de un documento electrónico (de texto, imagen, audio o vídeo) desde su creación hasta su destrucción pasando por las sucesivas modificaciones, así como la publicación, difusión etc. La gestión documental también aborda el modo de optimizar el acceso a los documentos, y a la información que contienen, del modo mas eficaz posible.

=> Egosurfing: Acción de rastrear la Red buscando menciones a uno mismo. Desde el punto del Mix de Marketing Online es necesario hacerlo para saber la posición que tiene nuestro sitio web web respecto a la competencia, los lugares donde se menciona y el modo en que se hace para, a la vista de los resultados, tomar iniciativas que mejoren nuestra imagen en Internet. En el ámbito absolutamente lúdico, dedicarse a escanerar la Red buscando, supongamos a una ex-novia o a un viejo compañero del colegio, podría definirse como: "cotisurfing".

=> EKM: Siglas de las palabras inglesas: “Enterprise Knowledge Management” que, en español, pueden traducirse por: “Gestión del Conocimiento Empresarial” y define a la estrategia, proceso y tecnologías necesarias para adquirir, almacenar y compartir de modo seguro, en una empresa, la inteligencia que le permita lograr ventajas competitivas, innovación y agilidad en su gestión.

=> Electronic Mall: Ver: cybermall.

=> Emoticon: Contracción de las palabras inglesas: Emotion; e Icon (emociones e iconos), es decir, emociones expresadas a través de imágenes. También se conocen bajo el término inglés de: smileys. Se usan en el chat y por extensión en los news y en la correspondencia informal entre usuarios. Es como una carita mirada de lado. Por ejemplo, :-) significa alegría, en tanto que :-( es tristeza. Los emoticones cambian dependiendo de las zonas geográficas. Los asiáticos son bastante distintos a los europeos. La risa alli puede ser: ^__^ .

=> En construcción: En una página web significa pendiente de finalización. Es el mensaje que ponen en algunas páginas web no operativas. En opinión de quien esto suscribe, se trata de mala estrategia desde el punto de vista del Mix del Marketing Online porque genera mucha frustración en quien intenta visitar un sitio web.

=> Encaminador: Dispositivo que permite la conexión entre redes encargándose además de que los paquetes en que se divide la información lleguen a su destino. En el argot informático hispano se le conoce cómo: "enrutador". En inglés: router.

=> Encargado del Tratamiento: Persona física o jurídica, autoridad pública, servicio o cualquier otro organismo que, solo o conjuntamente con otros, trate datos personales por cuenta del responsable del tratamiento, según lo indicado por la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal vigente en España y otras similares en el resto de la Unión Europea. Las asesorías y en general empresas de servicios que realizan trabajos de modo externo para otros son, generalmente, un ejemplo claro de encargados del tratamiento, siendo el responsable del fichero la empresa que les ha cedido los datos.

=> Encriptación: Proceso de codificar una información para evitar que sea accesible a todo aquel que no disponga del código de descodificación. Sirve para evitar que el contenido de mensajes pueda estar al alcance de cualquiera manteniendo de este modo un determinado nivel de seguridad y/o privacidad.

=> Engage: Método por el cual dos empresas intercambian entre sí el contenido de sus bases de datos con los perfiles psicográficos de las visitas a determinadas página web a los que previamente se les ha seguido mediante una cookie.

=> Enlace: Base del hipertexto. Se trata de la posibilidad de pasar de un punto a otro de un documento o entre distintos documentos. En inglés: link.

=> Enlace asociativo: Enlace en el interior de una página web que conecta entre sí diferentes secciones o áreas de esa misma página. Este tipo de enlace con frecuencia va asociado a un icono, como pueda ser el que indica el principio de la página con una flechita, o con el texto: "subir".

=> Enlace de estructura de navegación: Enlace externo a la estructura de la información de una página web que permite al usuario ir de una parte a otra de dicho espacio informativo. Como ejemplo típico están los botones de regreso a la página principal y al resto de páginas de ese mismo sitio web. En inglés: Structural navigation links.

=> Enlace de texto: Enlace vinculado a una frase o determinado texto en una página web. Es de enorme utilidad desde el punto de vista de la publicidad en Internet. En inglés: Text Link.

=> Enlace externo: Enlace que apunta desde un sitio web externo al nuestro. Lo ideal en el Mix de Marketing Online es lograr que la máxima cantidad posible de páginas web referencien nuestro web porque ello favorece un buen posicionamiento en los [buscador, buscadores]%.

=> Enlace publicitario: Es un tipo de enlace externo que referencia nuestro sitio web a modo de anuncio del mismo. Dicha referencia esta condicionada al plazo de tiempo que se contrate para llevar a cabo esta modalidad de promoción.

=> Enlace roto: Enlace que está desactualizado y ya no apunta a un archivo válido en Internet. La cantidad de enlaces rotos de una página web marcan la obsolescencia de la misma.

=> Enlazar: En Internet hace referencia a la posibilidad de unir entre si dos archivos, o diferentes partes del mismo documento por medio de enlaces. Significa exactamente lo mismo que la palabra de argot,linkar".

=> Enmascaramiento: Empleo de páginas web únicamente visualizables por los buscadores, los cuales, caso de detectar este vacío de contenidos penalizan el posicionamiento descatalogando a dichas webs. En inglés: Cloacking.

=> ES-NIC: Registro Delegado de Internet en España. Es el responsable de la gestión administrativa y técnica del dominio de DNS de primer nivel para España ("*.es"), y por ello del registro de nombres dedominio de DNS de segundo nivel bajo "*.es" ( ) por delegación de la Internet Assigned Numbers Authority (IANA), autoridad máxima del sistema de nombres en Internet (DNS).

=> Escaparate electrónico: Página web con la que una empresa presenta una tienda en un centro comercial virtual, o cualquier otra fórmula de asociación destinada a fomentar el comercio electrónicode un grupo de firmas. En inglés, electronic storefront.

=> Espacio de colaboración: Aplicación que trabaja sobre Internet diseñada para optimizar la colaboración entre equipos permitiendo mantener centralizada la información. Este tipo de herramientas suelen ofrecer la posibilidad de compartir documentos, visualizar el correo electrónico, comunicarse a través de servicios de mensajería instantánea y acceso remoto al calendario a través del teléfono móvil. En inglés: "Project Workspace".

=> Espacio publicitario: Area de una página web destinada a la colocación de un anuncio. En una página puede haber más de un espacio con su correspondiente identificación por medio de etiqueta en el código fuente. Cada etiqueta emite de modo independiente una solicitud de anuncio al servidor encargado de enviarlos (adserver, en inglés) cada vez que un usuario ingresa en esa página.

=> Espacio web: Espacio disponible en un servidor web para el hospedaje de un sitio web. Se mide en Megabytes.

=> Espejo: Servidor de Internet que contiene la misma información que otro al cual le sirve de respaldo. Así, cuando el primero falla, el segundo, es decir, el espejo, toma el relevo. Se utiliza para crear una situación de alta disponibilidad del servicio web de modo que siempre este accesible la información que contienen los servidores y los servicios que prestan. En inglés, Mirror.

=> Estantería de archivos: Lugar dentro de un sitio web que contiene los archivos que la compañía desea que sus consumidores y clientes lean, tales como dossieres de prensa, balances de gestión, o anuncios publicitarios. En inglés, se puede ver con frecuencia este concepto bajo el término de: libraries, pero aquí, en el mundo hispano la traducción más directa, es decir, biblioteca no sirve porque el matiz alude al espacio donde se encuentran libros e induce a error. Peor, si cabe, libreria virtual, que tiene además la acepción de tienda de venta de libros en Internet.

=> Estereoscopía: Técnica que comenzó a desarrollarse hace más de 150 años y que merced a las posibilidades informáticas, principalmente en programas para tratamiento de imagen, vuelve a convertirse en una poderosa herramienta de visualización. Más información en:, donde cabe la posibilidad incluso de ponerse en contacto con una Comunidad Virtual de Estereoscopistas.

=> Estornudo: Momento y lugar concretos en el que se lanza una ideavirus. En Internet puede ser, por ejemplo, cuando se publica un mensaje en un Grupo de Noticias, se anuncia algo a través de un boletín electrónico, se propone cualquier cosa a los suscritos a una lista de distribución, o se destaca un contenido de una página web.

=> Estrategia: En el ámbito de la gestión de la empresa, consiste en visualizar un escenario futuro y hacer todo lo posible para que se haga realidad. Actualmente, Internet es una herramienta necesaria en ese proceso. (Nota: Esta es la definición que exponen, desde la consultora Latencia SL (, Emepe Méndez de Tineo y Mar Monsoriu, autora de este Vocabulario).

=> Ethernet: Tipo de red de área local desarrollada por la empresa Xerox muy usada para la creación de Intranets corporativas.

=> Etiqueta: En el lenguaje HTML, conjunto de instrucciones que pueden ser interpretadas por un navegador. En las etiquetas esta tanto las imágenes, como el texto que se le pide a un servidor web para ir configurando una página web. En inglés se denomina tag.

=> Experiencia de usuario: Conjunto de sensaciones que un usuario percibe, de modo consciente o no, cuando visita un sitio web y que le llevan a formarse una opinión acerca del mismo. En inglés: User Experience, que tiene como acrónimo: UxP. La Experiencia de Usuario, como tantos otros aspectos, es evaluable en cualquier investigación de mercado que se precie. Por tanto, en opinión de la autora de estas líneas, cabe desconfiar de aquellos supuestos profesionales que se presentan cómo “Consultores de User Experience” porque en la mayoría de los casos el título no responde más que a esa tendencia poco seria de camuflar bajo sofisticadas denominaciones unos servicios que pueden estar tremendamente sobredimensionados en el precio.

=> Externalización: Acción de contratar a una empresa externa el desempeño de procesos de la propia empresa cómo modo de ahorrar costes y optimizar los recursos. Relacionados con Internet se externalizan multitud de tareas y procesos que van desde el alojamiento web, o el mantenimiento de los servidores, redes y aplicaciones hasta servicios especializados de marketing como pueda ser las campañas de publicidad online, la investigación de mercados, o la elaboración y difusión boletines digitales. En inglés: outsourcing.

=> Extranet: Interconexión entre dos o más organizaciones a través de sistemas basados en los protocolos de Internet.

=> Ezine: Término viene de la contracción de las palabras inglesas: e-mail magazine. Se trata de una revista que se distribuye a través del correo electrónico. Las hay con periodicidad diaria, semanal, quincenal, mensual y trimestral. Pueden estar realizadas por una sola persona o por varias. De un tema monográfico o de tipo general. En los Ezines todos los artículos se reciben en un mismo mensaje de correo electrónico. Los Ezines se reciben por suscripción. Esta última puede ser gratuita, sólo para socios, o previo pago de una cuota. El modo de suscribirse varia mucho de una publicación a otra. Va desde el que solo necesita un mensaje de alta con una palabra, como pueda ser: "subscribe", hasta en el que se logra rellenado un largo formulario y poniendo el número de la VISA. Los Ezines de pago son los menos y solo se pueden dar en colectivos altamente especializados a los que este medio les permite la obtención de información rápida de mucha calidad. No hay que confundir los Ezines con las revistas digitales puesto que las anteriores se visualizan a través de una página web a la cual hay que acceder para leer su contenido. El mejor listado mundial de Ezines es el que mantiene John Labovitz en su sitio web web donde, sólo de marketing (, puede encontrarse alrededor de 400 publicaciones.

Imagen de System Administrator


de System Administrator - miércoles, 10 de julio de 2013, 19:24
  • E - Enlightenment, also called E, is a popular free and open source (FOSS) wind...
  • Eclipse - Eclipse is the most widely-used open source integrated developm...
  • Eclipse Foundation - Eclipse is the most widely-used open sour...
  • Eclipse Platform - Eclipse is the most widely-used open source i...
  • Edubuntu - Ubuntu (pronounced oo-BOON-too) is an open source Debian-base...
  • ElasticSearch - ElasticSearch is an open source, RESTful search eng...
  • Enlightenment - Enlightenment, also called E, is a popular free and...
  • Enlightenment (E) - Enlightenment, also called E, is a popular ...
  • Exim - Exim is an open source mail transfer agent (MTA), which is a program ...

Página: (Anterior)   1  2  3  4  5  6  7  8  9  10  ...  21  (Siguiente)