Glosario KW | KW Glossary

Ontology Design | Diseño de Ontologías

Browse the glossary using this index

Special | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | ALL

Page: (Previous)   1  ...  9  10  11  12  13  14  15  16  17  18  ...  23  (Next)


Picture of System Administrator

Microgrid Start Up

by System Administrator - Thursday, 9 July 2015, 4:47 PM

eBook | Microgrid Start Up: A Guide to Navigating the Financial, Regulatory, and Technical Challenges of Microgrid Implementation

The development of a microgrid comes with a wide array of issues -- regulatory, technical and financial. This eBook takes a look at all of these topics: regulatory issues to consider prior to pursuing a microgrid project, critical technical issues involved in pursuing microgrid projects, and the two-part evaluation process for investing in a microgrid.

Read this eBook to discover:

  • How to identify key regulatory risks that may affect development of a microgrid project
  • Different ownership models for a microgrid project
  • Basics of evaluating the financial viability of a microgrid project
  • Potential impact of utility rate issues on economics of a microgrid project

Please read the attached eBook.

Picture of System Administrator


by System Administrator - Monday, 9 March 2015, 3:18 AM

IT Leadership: Signs You're a Micromanager (And How to Stop)

By Sharon Florentine

Micromanagement may seem harmless, but it's sabotaging your teams, your productivity and morale from within, and stifling your business's ability to grow. Here's how to tell if you're a micromanager, and some steps you can take to overcome this fatal flaw.

Are you never quite satisfied with your team's results? Do you avoid delegating at all costs, often taking on work that's far below your experience and talent level just because you're certain no one else can do it as well as you can? Are you constantly demanding status updates, progress reports and check-ins? It's time to face the facts: You're a micromanager.

Micromanagement might not appear to be a big deal -- you're just trying to make sure tasks and projects are on time, done right and in ways that will benefit the business, right? -- but the truth is, it's incredibly damaging to every aspect of a business, says Stu Coleman, partner and senior managing director at WinterWyman Financial Contracting and a self-proclaimed recovering micromanager.

Micromanagement Stunts Growth, Erodes Morale and Slows Productivity

"At its core, micromanagement chokes off growth. You can't micromanage a team, or an entire business and expect to grow; you have to support, groom and grow leadership within your organization that can take on roles and responsibilities that you used to perform so you can focus on strategic issues," says Coleman.

Micromanagement also negatively impacts employee morale, engagement and productivity, says Bob Hewes, senior partner with oversight for leadership development, coaching and knowledge management, Camden Consulting, and can lead to high turnover rates and even recruiting and talent retention problems.

"Micromanagement is almost never benign. It's a destructive force that goes far beyond a 'management style;' it really gets at morale, at engagement and you'll find that micromanagers often see high turnover of their direct reports," Hewes says.

Productivity suffers, too, as teams and individuals must constantly interrupt their progress to deliver status reports and updates as well as explaining their methods and processes in meetings and phone calls. The likely outcome of these constant status reports is that the micromanager's way is better, faster, and the employee is wrong, even though they may have excellent skills and a wealth of knowledge, says Hewes.

"It also creates a risk-averse culture. Workers aren't going to even want to try new, innovative things if they feel their managers is going to be breathing down their neck, waiting for them to screw up," Hewes says.

It can be difficult for micromanagers to identify their behavior, according to Coleman, because it can often be justified and excused. "I'm doing what's best for the business," "If this project fails, we'll all be in trouble" and 'too much is at stake for me to let the project be anything less than perfect" are all justifications for micromanaging behavior, but while those excuses may ring true in the short term, they're sabotaging your teams from within, says Coleman.

"When these behaviors are happening, it can be difficult to admit to yourself. But you don't have to relax your quality standards and your results-focused approach in order to be successful. Just like in professional football, you have to watch game tapes to see what you did right, what you did wrong and where to improve," says Hewes.

How to Fix It

No one in a leadership position actively wants to be a micromanager, according to Hewes, but if you find yourself faced with overwhelming evidence, there are steps you can take to change your behavior. The first step is always being aware of the problem and having the willingness to take steps to change.

"You need to be open to soliciting feedback on your behavior, and be receptive to changing it. You must recognize that the way to grow, the way to get work done is by gaining more time -- and you get more time by getting work done with and through others," says Hewes.

Once you've recognized the problem, you must enlist the help of your team and direct reports to help you address it and recognize that change isn't going to happen overnight. "You have to tell people what's happening. It can be very helpful to schedule a sit-down meeting to admit you have a problem and ask for help to make it better. You can say, 'I recognize that I've been all over you, and that it's hindering you. I also recognize that you have skills and talents, and those haven't been empowered effectively. So, let's try some new methods,'" Coleman says.

These new methods could mean meeting with teams or individuals less frequently, or allowing them to work through problems, issues and obstacles without consulting you; only reporting back when problems have been identified, addressed and resolved.

Of course, if you've been micromanaging for a long time, there's a chance your teams aren't going to be able to function independently right off the bat, so you must be prepared for some growing pains. "When you finally decide that you're going to empower your people, understand that you've become an enabler. You haven't ever given them a chance to think or work independently, so just when you want them to start making decisions they may be unable to function without the intense supervision and direction you've given them in the past," says Coleman. That's completely understandable, and you must be patient and willing to work through the inevitable learning curve.

You also should consider doing a cost-benefit analysis of your time and where you're spending it, says Coleman. Every time you get the urge to ask for a status report, or to step in and "help" a colleague with an assigned task or project, ask yourself if what you're about to do falls below your pay grade?

"It sounds really terrible on its surface, but sometimes, as a person in a leadership role or in management, you have to think, 'I get paid too much to do this work; I've hired someone at a lower responsibility level who can handle this. Let them earn their paycheck by taking care of this task,'" Coleman says.

While it sounds harsh, what you're really doing is changing your own patterns and that of your direct reports, and establishing greater trust. By backing off and allowing them to do what it is you hired them to do, they are gaining skills, knowledge and experience and are performing their job as specified -- and they're empowered to do so. Or, put another way, "You have to decouple the 'what' from the 'how'. In every project, every job, every task is 'what you want accomplished' and the 'how you want that task accomplished.' A micromanager will overemphasize the 'how' over the 'what' and will be laser focused on minutia to the detriment of the overall outcome," Hewes says.

"You have to let go and understand that there are a lot of different ways to 'how,' a lot of different ways to get things done. Especially in knowledge work, there's a lot of flexibility in the 'how.' It's not like surgery where you have to do certain steps in certain order or else someone dies," says Hewes.

Give It Time

And while it may seem painful and slow going, each step toward asking people to take responsibility for the 'how' and relinquishing some control is a step toward improving your relationships, growing your business, encouraging trust, engagement and productivity.


Picture of System Administrator

Microsoft open source efforts draw praise

by System Administrator - Tuesday, 7 March 2017, 4:28 PM

Microsoft open source efforts draw praise

by Ed Scannell

Industry observers are buying into Microsoft's attempts to reach new users, as the company builds support for Linux and other open source technologies in its offerings.

For the past two years, Microsoft has waged a relentless campaign to build bridges, not walls, between Windows and Linux. That effort has re-established Microsoft's street cred as a stem-to-stern services provider in the eyes of users.

Microsoft's CEO, Satya Nadella, drove the decision to extend the hand of friendship to the open source world over the last several years, instead of brandishing a clenched fist. While at an event in late 2014 to promote Microsoft's cloud offerings and show the company's commitment to open source, Nadella said, "Microsoft loves Linux." The statement was a 180-degree shift in attitude from his predecessor, Steve Ballmer, who called Linux a "cancer" in 2001.

Given Microsoft's rapidly rising revenues the past two years, it turns out Linux has been quite good to the company. The company's support for the open source operating system has helped put Microsoft back on the fast track while it gains respect among once-skeptical users and developers.

"Without that credibility, Microsoft would have a hard time convincing users to stay on board with them," said Al Gillen, group vice president of software development and open source at IDC. "Users living in very heterogeneous environments would feel Microsoft was a one-trick pony that couldn't service their total needs."

The enthusiastic adoption of Linux by Microsoft has boosted corporate users' confidence to blend Windows-based technologies with either existing or new internally developed open source projects. Some are also relieved they don't have to engage in hand-to-hand combat with Microsoft over the choice of platform to deploy an application.

"Every answer to questions we had about deployments was Windows," said a manager of terminal systems field initiatives with a large transportation company in Jacksonville, Fla. "Now, answers come back to us like, 'Whatever you think works best for you, we'll try to support that.' That's big for us."

Growing data center diversity 

The endless wave of mergers and acquisitions over the past decade among the country's largest companies has increased the technical diversity and complexity of their IT environments. The pure Microsoft IT organization, even down at the departmental level, is extinct. Even Microsoft itself, through its recent acquisition of LinkedIn, has picked up a sizeable fleet of Linux-based servers its internal IT organization must deal with, said John Gossman, lead architect for Microsoft Azure, the company's cloud platform.

"You might think in large companies that a whole department has everything built in .NET, and another whole department has all Linux and Java, but it's just not the case," he said. "Every department I have come across has mixed workloads. They might love Apache or be running a LAMP stack, but they also have SQL Server or Active Directory to tie together security and authentication."

Microsoft's mission to embrace Linux environments started in 2008 with the company's efforts to ensure Hyper-V and System Center tools ran well with the open source environment. Even then, the company realized it could no longer properly support its hardcore Windows and .NET users, Gossman noted.

Path to Azure eased by adding Linux support

Four years ago, Microsoft added support for several distributions of Linux for its Azure cloud environment -- although support for Red Hat's distribution came only last year -- and began to build momentum to create bridges for Windows users to travel across to the open source world. The company's current role as a top-tier cloud provider has helped its campaign to equally support Windows and Linux side by side, so users can more easily pick their operating system and hardware.

"Trying to configure any of these things, especially on a bare-metal server, is a lot of work," Gossman said, adding that a move to the cloud eliminates the chore of finding the right hardware drivers and BIOS updates, then getting them to run properly.

The skyrocketing revenue growth of Azure -- 93% year-over-year growth from 2015 to 2016 -- could give pause to some corporate IT shops that currently have multiple cloud providers. Some observers said they believe the growth of Azure, with the ability to run both Windows and Linux-based workloads, as well as rising subscriptions for Office 365, could convince IT shops to kick public clouds like Google Cloud Platform and Amazon Web Services (AWS) to the curb.

"For some shops with less complex IT environments, they could decide they don't need to have AWS and Google solve their off-premises needs, and that they can get it all from one vendor," Gillen said. "It could serve to simplify things and, over time, and could also save them money."

Loving Linux

  • Microsoft has joined a number of open source consortiums, most notably The Linux Foundation as a Platinum member in November 2016. At that time, cloud archrival Google joined the .NET Technical Steering committee.
  • Microsoft is expected to deliver a version of its flagship database, SQL Server on Linux, later in 2017 that will enable data to be exchanged with Windows Server via the cloud or on premises.
  • The.NET development environment, along with Visual Studio, now supports Linux, so applications can be run in both Windows and Linux environments.
  • GitHub, a popular repository for open source projects, disclosed last September that Microsoft had the largest number of contributors to open source projects.
  • Windows and Azure support both Docker containers and Kubernetes container management.
  • Azure clearly has become a multi-platform cloud. Thirty-three percent of Azure's VMs run on Linux, and Azure supports eight Linux distributions, including CentOS, Oracle Linux, SUSE and Ubuntu.
  • Microsoft released PowerShell for Linux in August 2016 to provide tools that manage systems outside the Windows environment.

Microsoft delivers Linux versions of key offerings

Over the past couple of years, Microsoft has delivered Linux versions of three strategically important products: SQL Server, .NET and Visual Studio. At its 2016 Build developer conference, Microsoft debuted Windows Subsystem for Linux, which lets users run Ubuntu binaries via the Bash shell in Windows 10 and use Linux tools alongside Windows utilities without the need to reboot or launch a virtual machine.  

With these developments, Microsoft offers choice and convenience to corporate IT professionals and developers who are wary of lock-in with a single vendor's software stack, where a single decision, such as programming language, could dictate other decisions for operating systems, databases and even cloud, Gossman said.

"We separate out these layers to make sure they have choice at each layer. It makes it a lot easier for users to make decisions and removes that fear," he said.

For many enterprises, open source isn't a necessity yet, but the option is nice to have, said Molly Gallaher Boddy, an analyst at Technology Business Research in Hampton, N.H.

"All of their competitive peers, like IBM and [Hewlett Packard Enterprise], are offering proprietary solutions blended with open source, so [Microsoft has] to offer that. It's a keeping-pace thing," Boddy said.

Resistance to open source crumbles

Microsoft open source support is well-timed.

Acceptance of open source has slowed among some Windows shops because of a skills gap. Most IT professionals are trained to implement and maintain Windows platforms, and have little to no experience managing Linux and other open-source-based software. If given a choice, many administrators will choose to remain with platforms they know, but there are signs of shifting attitudes.

"You see smaller, OpenStack-focused companies like Mirantis and Rackspace shifting their businesses more toward services and training [for open source]. This tells me they recognize that gap and are working to fill it," Boddy said.

Some believe as Millennials -- many of whom are quite familiar with Linux -- come into the IT workforce in greater numbers, the lack of technical training on open source technologies will cease to be an issue in a few years.

"There will be this generational shift moving forward, as new IT [workers] become younger over time. But, for now, we are in a transitional time," said Kelsey Mason, an analyst with Technology Business Research's cloud practice.


Picture of System Administrator

Minimizar las interrupciones en las áreas de TI

by System Administrator - Thursday, 8 January 2015, 3:11 PM

Cómo hacen las empresas para minimizar las interrupciones en las áreas de TI

Fuente: Networking

Casi tres cuartos de los profesionales de TI encuestados señaló que su organización considera como una meta importante lograr cero interrupciones para sus sistemas computacionales empresariales. Así lo señala un estudio comisionado por SUSE, el cual muestra también que la mayoría de las organizaciones apuestan a la actualización de hardware, aplicaciones y funcionalidad del sistema operativo. Según la encuesta, los fallos en la tecnología fueron por mucho la fuente predominante de interrupciones imprevistas. ¿Qué factores tienen en cuenta los responsables de TI para lograr cero interrupciones?

Casi tres cuartos de los profesionales TI encuestados señaló que su organización considera como una meta importante lograr cero interrupciones para sus sistemas computacionales empresariales, mientras que un total de 89% al día de hoy espera experimentar interrupciones para su carga de trabajo más importante. La brecha entre la necesidad de cero interrupciones y lo que las empresas actualmente están experimentando fue revelada en un reciente estudio encomendado por el proveedor de Linux empresarial, SUSE.

Las buenas noticias es que más de la mitad (54%) de los encuestados indicaron que están efectuando una estrategia para reducir de manera significativa las interrupciones en el sistema en el próximo año, y otro 17% cuenta con una estrategia pero aún no han comenzado a implementarla. Estas estrategias incluyen la actualización o cambio de hardware (55%), aplicaciones (42%) y funcionalidad del sistema operativo (34%).

Las interrupciones del sistema —particularmente interrupciones imprevistas— afectan negativamente a organizaciones de todos los tipos y tamaños, limitan el crecimiento, reducen los ingresos y afectan la productividad —señaló Ralf Flaxa, vicepresidente de Ingeniería en SUSE—. CIOs y profesionales TI reconocen la necesidad de reducir las interrupciones, y deben trabajar con los proveedores de software y hardware que compartan su compromiso para hacer una realidad el lograr casi cero interrupciones”.

Para reducir las interrupciones imprevistas, los encuestados citaron “aprovechar redundancias, como las que ofrece el agrupamiento (cluster) de alta disponibilidad” (51%), “funciones de instantánea de estado y regresar a un estado anterior” (35%) y “actualizar el SO” (32%) como los pasos más probables. Para reducir las interrupciones planeadas, los proyectos incluyen instantánea/regresar a estado anterior (51%), mejores herramientas de actualización (40%) y actualización en vivo (36%).

Otros resultados indicaron:

  • Las cargas de trabajo más importantes a salvaguardar contra interrupciones son correo electrónico, hosts de virtualización y servidores web, seguidos de cerca por las cargas de trabajo específicas, particulares del mercado o industria del encuestado.
  • En contraste, las cargas de trabajo más vulnerables a las amenazas de la interrupción son las cargas de trabajo específicas de la industria, los hosts de virtualización, los servidores web y ERP, debido, muy probablemente, a su impacto a todo lo largo de la empresa.
  • Casi un cuarto de los encuestados dijo que su carga de trabajo más vulnerable eran los servidores web, volviéndola la carga de trabajo con mayor riesgo.
  • La mayoría de los encuestados programan interrupciones planeadas para sus cargas de trabajo más importantes, ya sea mensual o trimestralmente.
  • Interrupciones imprevistas, sin embargo, fueron experimentadas por el 80% de los encuestados. Aquellos que sufrieron interrupciones imprevistas tuvieron el problema, en promedio, más de dos veces al año en su carga de trabajo más importante.
  • Los fallos en la tecnología fue por mucho la fuente predominante de interrupciones imprevistas.


El estudio de SUSE indagó sobre qué cargas de trabajo resultan más importantes a la hora de protegerlas contra una interrupción del servicio. Los resultados fueron:

• Específicas de la industria: 22%
• Virtualización: 19%
• Servidores Web: 17% 
• ERP: 16%
• e-mail: 12%
• CRM: 5%
• Archivado/Impresión: 4%
• Analíticas/BI: 3%
• Compliance: 2%

La encuesta también preguntó: ¿qué nivel de tiempos de downtime espera usted para las cargas de trabajo más críticas?

• Ninguna interrupción (Zero Downtime): 11%
• 5 minutos/año: 11%
• >1 hora/año: 19%
• >9 horas/año: 40%
• >90 horas/año: 19%

En el estudio se encuestó a 105 profesionales TI. El estudio completo puede ser encontrado en Para más información acerca de los beneficios de la cero interrupción del Linux empresarial, visite


Picture of System Administrator

Mobile App Security Through Containerization: Top 10 Considerations

by System Administrator - Tuesday, 16 June 2015, 10:24 PM

Mobile App Security Through Containerization: Top 10 Considerations

Mobile devices present a unique dilemma to the enterprise. On the one hand, workers empowered with tablets and smartphones can transform the way they do business; they're more agile, closer to customers, and more productive. Bring Your Own Device (BYOD) programs give users the freedom to work on the devices of their own choosing, while still allowing an enterprise to reap the productivity benefits of these always connected, readily accessible mobile devices.

Please read the attached whitepaper.

Picture of System Administrator

Mobile Remote Desktop Apps

by System Administrator - Friday, 14 November 2014, 2:05 PM

How mobile remote desktop apps work

by Robert Sheldon

Remote desktop apps can serve as a starting point for enterprise mobility. They make Windows available anywhere, and IT can manage them easily.

Mobile remote desktop apps can be a valuable tool for mobile workers, allowing them to access their Windows applications through other devices.

For companies that plan to continue utilizing PCs, remote desktop apps are an opportunity to increase productivity. All that's needed to use a remote desktop app is a strong Internet connection, remote desktop software for the host PC, and a secondary device, such as a smartphonetablet or other computer.

Desktop and laptop computers are no longer at the forefront of technological innovation, but they remain the device of choice for many of the tasks workers have to perform on a daily basis. Even so, these workers are not always sitting in front of their PCs. They travel. They attend meetings. They go home at the end of the work day. Yet, they still might need to access the resources available on their desktops.

That's where the remote desktop app comes in. It opens a portal from your mobile device to your desktop, providing full access to the files andapplications that reside on the other side. And it streams your desktop to your mobile device and renders its interface as though you're sitting in front of your PC, even if you're thousands of miles away.

The technology behind mobile remote desktop apps

To establish a remote session between your mobile device and a desktop, you need several ingredients. The first is the host PC (the desktop you want to access). It must be turned on and connected to the Internet. In addition, remote desktop software must be installed on the PC to host the session.Remote Desktop Services are built into most Windows operating system editions to serve this purpose. The services use Microsoft's proprietaryRemote Desktop Protocol (RDP) to facilitate secure communication between the host and the client.

Another component in the mix is the client device that accesses the host PC. This can be a smartphone, tablet, laptop or another desktop computer, although it's the mobile devices that provide the level of flexibility and portability many users are after.

A remote desktop protocol, such as RDP, provides the transport mechanism necessary to establish a session via the Internet and facilitate secure communications between the host PC and the mobile device. Some remote desktop apps use RDP to connect to Windows computers, while others use different protocols, meaning additional remote desktop software will need to be installed on the host PC.

Protocols can vary significantly from one to the next in terms of what platforms they support and how well they perform. Some will stream data better than others. Some make better use of resources. Some are specific to an OS. Some run independently from the OS. When evaluating remote desktop apps, be sure to take into account the protocols used, their impact on performance, and the operations they support.

Selecting mobile remote desktop products

You'll find plenty of products to choose from and criteria to evaluate. For example, the TeamViewer remote desktop app uses its own proprietary protocol; can connect to Windows, Mac and Linux desktops; and supports integrated file transfers between the PC and the mobile device. On the other hand, Microsoft's Remote Desktop app uses RDP to communicate with the host PC, but that PC must be a Windows computer. One benefit of the latter is that you don't have to install a host application. Both apps will run on Android, iOS and Windows Phone devices.

Although much of the focus on remote desktop apps goes toward employee productivity, they can also be a benefit to IT. Administrators can perform several key job functions and provide technical support from one location rather than having to be physically on-site to deal with a problem.

On the negative end, remote desktop apps are not as secure as a cloud storage service, which could provide a similar function in terms of remote access to files. Microsoft has issued two security fixes to RDP in recent years. There are also drawbacks not related to security. Remote desktop apps require a strong Internet connection to function properly and the user will be interfacing with a desktop operating system, which can be challenging to navigate on a mobile device.

There is certainly a level of risk involved in using remote desktop apps, and that may scare off some enterprise IT pros for whom there can be zero compromise on security. However, given the calculated risks involved with any program that runs through the Internet, the benefits of greater accessibility mean remote desktop apps could be a strategic fit in a wide range of enterprise environments.


Picture of System Administrator

Mobile Security

by System Administrator - Tuesday, 14 July 2015, 6:57 PM

Mobile Security

For today's enterprises, mobile security is becoming a top priority. As mobile devices proliferate in the workplace, companies need to be careful that these devices—as well as the networks and data that they access—are adequately protected. With the growing number of threats aimed at ex-ploiting mobile devices, safeguarding them is becoming complicated, but crucial.

In this eGuide, Computerworld UK, CSO, and IDG News Service examine some of the recent trends in mobile threats as well as ways to protect against them. Read on to learn how mobile security measures can help pro-tect your organization.

Please read the attached eGuide.

Picture of System Administrator


by System Administrator - Tuesday, 18 April 2017, 3:49 PM

AgWorks hires Mobilize.Net to retire old Visual Basic language apps

by Joel Shore

Legacy Visual Basic apps built for Windows desktops are in dire need of a reworking for the cloud and mobile age. Laborious manual code conversion is giving way to automation.

At AgWorks, a developer of applications for the farming and agricultural industries, the season had come to plant the seeds that would allow it to grow in the age of cloud computing.

After attempting to take its suite of applications, written in early 1990s Microsoft Visual Basic, and do an in-house rewrite to leverage modern cloud technology, the Davenport, Iowa, company reconsidered that strategy, opting instead for the services of Mobilize.Net, a Bellevue, Wash., cloud computing consultancy that specializes in that very discipline.

"These were four applications written in the Visual Basic language that date from shortly after the time VB first came out [in 1991]," said Matt Gropel, director of technology at AgWorks. The applications, which had to be installed manually on each computer, lacked the connectivity necessary for farms to keep data organized and in sync with the retailers that kept them supplied with seed, fertilizers, pesticides and other materials. "We recognized that while Visual Basic had served us well for many years, it could no longer meet our needs in the cloud," Gropel said.

A suite of applications for Windows, AgWorks handles seven key tasks for farmers and the retailers that serve them. Among those tasks are crop planning, including seed application and fertilizer recommendations from soil test data; scouting, for logging weed, insect, and disease observations; mapping, which generates visual representations of agronomic data; and compliance, which provides historical logging to minimize liability when dealing with federal Environmental Protection Agency or Department of Transportation inquiries.

He giveth then, and taketh away now

Who better to transition businesses away from Visual Basic than the very person who put them there in the first place?

"As a business you want to innovate and add new features. You don't want to take a year just to convert from an older language."

Matt Gropel | director of technology, AgWorks

"We got you into this mess, so who better to get you out of it," said Tom Button current CEO of Mobilize.Net and former longtime corporate vice president of Microsoft's developer division. Yes, it's true; Button, now helping businesses move beyond the venerable Visual Basic language, is the same guy who brought its first six releases to market.

As cloud and mobile technology shifted where computation takes place, it became necessary to build new, interconnected experiences with data that could be accessed, shared and changed in real time by any authorized user. That meant a move away from Visual Basic technology along with Windows itself.

"Windows and .NET are legacy platforms; it's not what people are targeting today," Button said. [Editor's note: Microsoft would disagree.] "We had a great run at Microsoft building up the client-server programming model, but the opportunity now for developers is much broader than that." The cloud, Button said, changes everything. "The vast majority of new application development now is HTML5 front ends that are accessible by any device at any time, accessing a cloud-based back end for business logic and data access."

To ease the pain of transitioning away from legacy Visual Basic technology, Mobilize.Net applies artificial intelligence-based pattern matching over large blocks of program code then mapping those patterns into newer technology that is much more true to the original programmer's intent, Button said.

One common technique in the process is to perform the transition, yet maintain the classic Windows look and feel, largely to avoid retraining users. "It's especially important when you have a network of 10,000 insurance sales offices that have all been running the same Windows app for 20 years but now want the operational benefits of HTML5," Button said. "They don't want the phones lighting up with user support questions, so they use the Kendo UI package on HTML5 to perfectly replicate the old Windows."

The dreaded 'Frankenapp'

At AgWorks, an early strategy was to load the Visual Basic application portfolio onto virtual machines. "That allowed us to update just that VM image and then users would download and install onto their own machines," Gropel said. The next phase was to rewrite sections of applications as a web app that could be run through a browser. "We couldn't do that quickly enough and ended up with a Frankenapp, some of the old with some of the new." When a user clicked on a button in the browser, that would launch some of the legacy Visual Basic code. This partial rewrite was done in Visual Studio with C# as the main server-side language, the ExtJS application framework on the client side. "We developed a RESTful API in C# and ExtJS on the front for communicating and retrieving data," Gropel said.

The problem that remained was that users working their acreages of farmland still lacked internet connectivity, resulting in database synchronization problems. Though Gropel said AgWorks was on the right track, his development team, deeply experienced in the company's Visual Basic code, had not done this type of work before. Combined with a need to complete the project quickly, Gropel sought an outside solution. "Mobilize.Net quickly converted our Visual Basic code in an automated fashion that turned into very nicely patterned C# code," Gropel said. "It was much faster than we could have done rewriting the applications manually."

Not all apps are conversion candidates

AgWorks was lucky. All of its Visual Basic apps were well-suited for automated conversion. But, not all are, Button said.

"We have seen applications in manufacturing automation that have serial cards plugged into the PCI bus to gather data off the factory floor and turn that into a programmatically accessible data set. Or if you're programming to the bare metal in Windows, these are not going to make a lot of sense to move to HTML5 on an iPhone or an Android," Button said.

Good candidates are supply chain apps that use a forms-over-data model, such as salespeople who need to get a price quote and have visibility through the supply chain. "There are thousands and thousands of those apps like that written in the 1990s," Button said. "They are all great candidates for putting in HTML5 so users can access them from their iPhone or Android and have the same user experience and access to the same data, whereas before they were tethered to their windows PCs sitting behind their desk on the LAN."

Advice for others

Having lived through the transition, Gropel said other businesses in the same situation, regardless of size, should consider going outside for code conversion.

"We would have been stuck for months just doing conversion and not creating any new functionality if we had to do this ourselves," Gropel said. "As a business you want to innovate and add new features. You don't want to take a year just to convert from an older language."

Joel Shore is news writer for TechTarget's Business Applications and Architecture Media Group. Write to him at or follow @JshoreTT on Twitter.

Next Steps


Picture of System Administrator

Modelado de amenazas de seguridad para la nube

by System Administrator - Monday, 22 December 2014, 2:42 PM

El proceso de modelado de amenazas de seguridad para la nube

por Ravila Helen White

Algunas empresas y consumidores se resisten a aceptar y adoptar la computación en la nube. Sin embargo, la aceptación procede en parte de la comprensión del riesgo, que es en gran medida sobre la comprensión del panorama de amenazas. Por lo tanto, las empresas tienen que definir adecuadamente las amenazas y clasificar los activos de información con un proceso de modelado de amenazas de seguridad.

Definición de amenazas

Antes de poder realizar el modelado de amenazas de nube, las empresas deben entender las amenazas de seguridad de información en un nivel más intrínseco.

Las amenazas son eventos no maliciosos y malintencionados; los últimos dañan activos de información. Los eventos no maliciosos ocurren sin intención maliciosa. Los ejemplos incluyen los desastres naturales, tecnología defectuosa, errores humanos, sobrecargas de energía, factores ambientales indeseables (como HVAC inadecuada), factores económicos, innovación tecnológica que excede la experiencia del personal, innovación que supera la supervisión regulatoria e innovación que excede las medidas de protección.

Eventos maliciosos son aquellos que ocurren por malicia. Los ejemplos incluyen hacking, hacktivismo, robo, abuso de derechos, abuso de acceso y recuperación de activos desechados, tales como buceo en el basurero. Los resultados de daños de cualquiera de estos eventos, cuando los activos de información son violados, expuestos o no están disponibles. Shellshock es un buen ejemplo de una vulnerabilidad que podría dar lugar a interrupciones generalizadas en toda una infraestructura de nube. En infraestructuras de nube, muchas de las tecnologías de punta –tales como firewalls, balanceadores de carga y routers– son aparatos que ejecutan un kernel Linux. Un atacante que gane con éxito el control de tecnologías de punta puede causar interrupciones a los servicios en la nube que soportan. Cuando el objetivo es la recopilación de información, el acceso a tecnología de punta es un trampolín hacia los sistemas internos que almacenan información personal o financiera. Del mismo modo, una variedad de las tecnologías utilizadas en infraestructuras de nube también ejecutan hosts Linux o Unix, ya sea que estén soportando almacenes de datos o un bus de servicios empresariales.

Eventos no maliciosos se producen regularmente y, en algunos casos, son inevitables. Tenga en cuenta los incidentes recientes en los que varios proveedores de servicios reiniciaron instancias para aplicar parches de hipervisor Xen. Para que los parches surtan efecto, los sistemas parchados tuvieron que ser reiniciados. Esos reinicios introdujeron la posibilidad de servicios en la nube no disponibles.

Ya sea malicioso o no malicioso, los proveedores de nube deben estar preparados para evitar interrupciones perceptibles a sus clientes.

Clasificar los activos de información

Una organización debe entender lo que significan los activos de información. Un activo de información es cualquier activo que resultaría en la pérdida de negocios o personales en caso de incumplimiento, exposición o indisposición. Los activos de información pueden incluir datos, tecnología y relaciones. Debido a sus costos, la tecnología se considera de mayor valor que los datos. Sin embargo, sin datos estructurados, es poco probable que la tecnología que almacena y transmite podría ser comprada y sostenida. Los datos son una mercancía para sus propietarios. Los ejemplos de datos son bases de datos de contacto de clientes, información de identificación personal, información de tarjetas de crédito, finanzas de la empresa, finanzas de consumo, dibujos de infraestructura, documentos confidenciales, información de configuración del sistema, información sanitaria e iniciativas estratégicas.

Los datos son más valiosos cuando pueden ser comercializados o utilizados para ganar la confianza de los consumidores para que inviertan en un servicio o producto. Aquí es donde la tecnología entra en escena. Dada la naturaleza dinámica del mercado de negocios y la naturaleza disruptiva de la tecnología, las empresas y los consumidores deben ser capaces de recuperar rápidamente, aún con precisión, transmitir y almacenar los datos tanto en la nube como en las instalaciones.

Las empresas y sus clientes son a menudo afectados de manera similar, cuando los activos de información son vulnerados, expuestas o no están disponibles. Muchas organizaciones, por ejemplo, han tercerizado la nómina o contratación a la nube. Una interrupción de los servicios de nómina en la nube podría causar un problema para los empleados que esperan sus cheques de pago.Las empresas que sufren una brecha típicamente sufren de reputación empañada. Las personas también experimentarán daños a la reputación su información sea accedida y utilizada por otra persona, lo que resulta en una mala calificación crediticia o pérdida financiera personal.

El último activo de información es el conjunto de relaciones comerciales que permiten una mayor ventaja competitiva. La mayoría de las relaciones comerciales implican el intercambio y o el uso compartido de información. Por lo general, ambas partes extienden un nivel de confianza entre los segmentos y los hosts en sus respectivas infraestructuras. Este nivel de confianza se logra idealmente a través de acuerdos contractuales que documenten la certificación no solo de la postura financiera saludable, sino también de las operaciones internas saludables. En el centro, se espera la garantía de las mejores prácticas en la gestión de la seguridad y el riesgo.

Las relaciones se vuelven tensas cuando un incumplimiento resultante de la incapacidad de un socio para cumplir con las obligaciones contractuales afecta la seguridad de los activos de información. Si un socio sale de la relación, ese activo se pierde y debe ser recuperado en otro lugar. El modelo de negocio de muchas entidades de atención de la salud se basa en las afiliaciones (como lo define HIPAA). La entidad cubierta buscará un socio de negocios para proporcionar una especialidad, mejorando así su ventaja competitiva o reduciendo los costos operativos. Se espera que los socios de negocios cumplan con los mismos requisitos de seguridad que la entidad cubierta. Cuando un socio de negocios experimenta una brecha exponiendo la información de salud protegida (PHI), la entidad cubierta también se ve afectada y los pacientes esperan que gestione todos los aspectos de mantener esa PHI privada y segura.


A pesar de los desafíos de seguridad que plantea la rápida evolución de la tecnología de la computación en la nube y las relaciones de negocios, la cuantificación de las amenazas y de los activos es necesaria para comprender el riesgo de la computación en la nube. Proporciona un modelo de seguridad del entorno. Los mismos activos de información, y muchas de las mismas amenazas, existen en infraestructuras no alojadas en la nube. El diferencial es por lo general la escala de los datos y el paisaje extenso para los atacantes.

Sobre la autora: Ravila Helen White es la directora de arquitectura de TI para una entidad de atención médica. Ella es una CISSP, CISM, CISA, CIPP y GCIH, y una nativa del noroeste del Pacífico.


Picture of System Administrator

Molecular Visualizer

by System Administrator - Tuesday, 16 September 2014, 1:33 PM

Ruben Gonzalez Jr.: Molecular Visualizer

Associate Professor and Director of Graduate Studies, Department of Chemistry, Columbia University. Age 42

Ruben Gonzalez Jr. worked his way through a chemistry degree at Florida International University (FIU) in Miami, first at a fast-food joint, then at a video store, where he eventually became assistant manager. Somehow, he also found time for science, spending his last three years in Stephen Winkle’s lab researching changes in the shape of DNA when it switches from a normal, right-handed helix to the opposite, left-handed form.

“I got lucky—hit the jackpot—[when] Ruben decided he wanted to work in my lab,” says Winkle, who knew Gonzalez as the student in his biochemistry class acing all of the tests.

Gonzalez had planned on becoming a high school chemistry teacher after college, but Winkle saw a different path for the young scientist and encouraged him to apply to graduate programs. In 1995, the pair were in San Francisco for a meeting of the Biophysical Society when Gonzalez got the news he’d been accepted into the University of California, Berkeley, where Winkle had done his own graduate work years earlier. They headed across the bay to meet Winkle’s former advisor, Ignacio “Nacho” Tinoco Jr., who immediately sold Gonzalez on RNA. “The idea that this molecule could carry the genetic information like DNA does, but could also fold into really complicated three-dimensional structures that could do chemistry like proteins . . . I fell in love with that idea,” Gonzalez recalls.

In Tinoco’s lab at Berkeley, Gonzalez studied RNA pseudoknots, the simplest known tertiary structure of RNA, consisting of two intertwined hairpin loops. Gonzalez solved the structure of a magnesium ion binding site in a pseudoknot from the mouse mammary tumor virus. He accomplished this by swapping out the magnesium ions, which help stabilize the structure but are not visible using nuclear magnetic resonance (NMR), replacing them with cobalt hexammine ions, which are NMR active.1 “I could actually see where the cobalt hexammine bound to the RNA and detect how it stabilized that particular structure,” says Gonzalez.

“He was not only smart, but he was ambitious and really cared about the science,” Tinoco says of Gonzalez.

Gonzalez went to Stanford University for a postdoc, working under RNA expert Joseph (Jody) Puglisi and physicist Steve Chu to develop single-molecule fluorescence tools that could aid in imaging ribosomes interacting with tRNA during protein translation.2 “[This was] the very first demonstration ever that one could study ribosomes and translation using single-molecule fluorescent approaches,” Gonzalez says.

In 2006, Gonzalez arrived at Columbia University, where he now oversees four postdocs, 11 graduate students, and one undergrad. Much of his group’s current work involves extending discoveries about translation in E. coli to the process in eukaryotes, with an eye toward human health and disease. Gonzalez also continues to innovate on the technological front, most recently by applying single-molecule field-effect transistors (smFET)—carbon nanotubes covalently bonded to the nucleic acids or proteins of interest that can help illuminate molecular structure—to the study of RNA, ribosomes, and translation.3

Gonzalez says he’s excited about how this new tool is going to allow him to dissect the process of translation at an ever-finer scale, in particular at much faster timescales, opening a window on how “ribosomes or other enzymes make decisions about correct or incorrect substrates.”  


  1. R.L. Gonzalez Jr., I. Tinoco Jr., “Solution structure and thermodynamics of a divalent metal ion binding site in an RNA pseudoknot,” J Mol Biol, 289:1267-82, 1999. (Cited 97 times)
  2. S.C. Blanchard et al., “tRNA dynamics on the ribosome during translation,” PNAS, 101:12893-98, 2004. (Cited 311 times)
  3. S. Sorgenfrei et al., “Label-free single-molecule detection of DNA-hybridization kinetics with a carbon nanotube field-effect transistor,” Nature Nanotechnology, 6:126-32, 2011. (Cited 111 times)
Picture of System Administrator


by System Administrator - Wednesday, 7 January 2015, 4:09 PM


he transformation of mobile communications networks into full-fledged IP networks has enabled operators to deliver a plethora of new services, content and applications to their subscribers. However, this IP metamorphosis has also enabled OTT players to gain a foothold at the expense of the mobile network operators.

OTT brands have become synonymous with attractive features and competitive pricing, and mobile consumers regularly turn to well-known OTT providers for myriad services. Leading OTT communications services include Microsoft’s Skype, Viber, Facebook’s Whatsapp, Line and Kik Messenger. Streaming video is routinely delivered to mobile devices from Google’s YouTube, Hulu and Netflix, while streaming audio is supplied by services as iHeartRadio, Pandora, Rhapsody, Samsung Milk, Slacker and Spotify.

The massive and growing proliferation of OTT services has resulted in flattening or declining voice and messaging revenues for mobile operators as OTT providers take more and more revenue share for those services. And while the use of bandwidth-intensive OTT services over mobile networks has driven up overall mobile data usage, it has also put considerable strain on those networks. As a result, operators continually need to dedicate massive amounts of capex and opex to expand capacity and maintaining quality of service (QoS) for all of their subscribers, not just those consuming OTT services.

Please read the attached whitepaper.

Picture of System Administrator


by System Administrator - Friday, 23 January 2015, 7:21 PM


Do What You Could Never Do Before

MongoDB can help you make a difference to the business. Tens of thousands of organizations, from startups to the largest companies and government agencies, choose MongoDB because it lets them build applications that weren’t possible before. With MongoDB, these organizations move faster than they could with relational databases at one tenth of the cost. With MongoDB, you can do things you could never do before. Find out how.


There are hundreds of thousands of MongoDB deployments. Here are a few of the popular use cases.

  • Single View. Real-time views of your business that integrate all of your siloed data.
  • Internet of Things. 40 billion sensors. $19 trillion in revenue. You’re gonna need a bigger database.
  • Mobile. Ship killer mobile apps in weeks, not months. Scale to millions of users. Easy with MongoDB.
  • Real-Time Analytics. Lightweight, low-latency analytics. Integrated into your operational database. In real time.
  • Personalization. Greet your customers like old friends – so they’ll treat you like one, too.
  • Catalog. Catalogs change constantly. That’s an RDBMS nightmare. But it’s easy with MongoDB.
  • Content Management. Store and serve any type of content, build any feature, serve it any way you like. From a single database.


MongoDB stores data using a flexible document data model that is similar to JSON. Documents contain one or more fields, including arrays, binary data and sub-documents. Fields can vary from document to document. This flexibility allows development teams to evolve the data model rapidly as their application requirements change.

Developers access documents through rich, idiomatic drivers available in all popular programming languages. Documents map naturally to the objects in modern languages, which allows developers to be extremely productive. Typically, there’s no need for an ORM layer.

MongoDB provides auto-sharding for horizontal scale out. Native replication and automatic leader election supports high availability across racks and data centers. And MongoDB makes extensive use of RAM, providing in-memory speed and on-disk capacity.

Unlike most NoSQL databases, MongoDB provides comprehensive secondary indexes, including geospatial and text search, as well as extensive security and aggregation capabilities.MongoDB provides the features you need to develop the majority of the new applications your organization develops today.

Watch a Recent MongoDB Presentation

We thought you might be interested in some of our videos from past events and webinars. You can browse our complete library of free, full-length presentations, or check out some of our most popular videos:


Picture of System Administrator

Multi-cloud deployment model

by System Administrator - Monday, 30 November 2015, 5:36 PM


Multi-cloud deployment model acceptance soars

by Joel Shore

Using a multi-cloud deployment model can help servers stay secure if used in consistent methods.

Deploy your company's compute load across multiple clouds, providers and services and you'll be better-protected against complete disaster if a server fails.

That's an increasingly popular and practical notion. As a result, adoption of a multi-cloud approach, sometimes called a cloud portfolio, is growing quickly. In its 2015 State of the Cloud Report, RightScale, a provider of cloud portfolio management services, noted that as of January 2015, 82% of surveyed enterprises are now employing a multi-cloud deployment model, up from 74% just one year earlier. Within that group, a mix of public and private clouds is favored by 55%, while those opting solely for multiple private or multiple public clouds are split almost equally (14% and 13%, respectively).

As companies simultaneously move applications and data to the public cloud, keep others on premises, and integrate with software as a service providers, it's important for them to deploy services in a consistent and repeatable way. "[Fail] to work this way and IT operations will not be able to maintain control," said Bailey Caldwell, RightScale's vice president of customer success.

Consistency through automation

In its August 2015 report, a cadre of nine Forrester Research analysts states that automating is the answer to the fundamental issues of scale, speed, costs and accuracy.

"It's not how well your cloud is organized or how shiny and new it is; it's about how well does that the application and workload perform together."

Roy Ritthaller

Vice president of marketing for IT operations management, Hewlett-Packard Enterprise 

Commenting on the report in relation to cloud deployment, analyst Dave Bartoletti said, "You may have a built a workload for Amazon [Web Services] that you now want to run in [Microsoft] Azure, or replace with a database in Salesforce, or use an ERP system like SAP in the cloud. You need a consistent way to deploy this."

The problem, Bartoletti explained, is that businesses find deployment across these varied platforms difficult largely due to a lack of tools with cross-platform intelligence. "Traditionally, you'd use the tool that comes with the platform, perhaps vCenter Server for VMware vSphere environments or AWS OpsWorks to deploy on Amazon."

The tools landscape is still adapting to the reality of the multi-cloud deployment model. In his October 2015 survey of hybrid cloud management offerings, Bartoletti analyzed 36 vendors, several of which offer tools that manage multi-provider cloud platforms along with application development and delivery.

Switching between cloud environments

Consistency appears to be the keyword for existing in a multi-cloud universe. It matters because nothing stays still in the cloud for very long, including the apps and data you provide and the actual infrastructures, services and pricing of each provider.

"If you want to move applications, data and services among different providers -- and you will as part of a continuous deployment strategy -- it's important to have consistency and a level of efficiency for managing those disparate environments," said Mark Bowker, senior analyst at the Enterprise Strategy Group.

Technical reasons for periodically fine-tuning a deployment strategy include:

  • Availability of new services from one provider that constitutes a competitive or operational advantage
  • Difficulties with a provider
  • A need to mirror deployments across multiple geographies to bolster performance
  • A requirement to ensure that network communications paths avoid certain locales in order to protect data assets
  • A desire to bring analytics services to where the data resides

Non-technical reasons might include changes to a favorable pricing model and the ability of one cloud provider to more fully follow an enterprise's compliance and governance requirements.

Similarly, the degree to which a cloud provider can meet regulatory requirements can lead to redeployment of applications or data from one vendor to another, said Lief Morin, president of Key Information Systems.

"When a business reaches a certain size, it has more leverage to dictate security terms to the provider; otherwise, the provider will dictate them down to the organization. It's a matter of economics and scale," he said. "In a multi-cloud environment, it gets more complicated. More providers means more risk, so it's crucial to work with them to ensure a consistent, standardized policy."

A multi-cloud deployment model should be a quasi-permanent arrangement, because nearly everything changes eventually.

"What you're seeing today is movement toward an application-configured infrastructure environment," noted Roy Ritthaller, vice president of marketing for IT operations management at Hewlett Packard Enterprise (HPE). "At the end of the day, it's not how well your cloud is organized or how shiny and new it is; it's about how well do the application and workload perform together."

While matching the application and load makes sense, the elastic nature of the hybrid cloud environment offers opportunities for continual refinement of where they are deployed, according to David Langlais, HPE's senior director of cloud and automation.

Like a swinging pendulum, a certain amount of back and forth between private and public clouds is natural, he said. "What's important is to design applications in a way that can handle changing deployment models, all the way down to managing the data and connecting to it," he explained. "Decisions that are made initially on the development side have to be handled in production for the long term. It also means understanding the cost profile and recalculating on a regular basis."

Next Steps

Dig Deeper on Cloud integration platform

Picture of System Administrator

Multi-Tenant Data Centers

by System Administrator - Monday, 20 October 2014, 1:52 PM

Four Advantages of Multi-Tenant Data Centers

Increasing demands on IT are forcing organizations to rethink their data center options. These demands can be difficult for IT to juggle for a variety of reasons. They represent tactical issues relating to IT staffing and budget, but they also represent real inflection points in the way enterprises strategically conduct business in the 21st century.

Please read the attached whitepaper.

Picture of System Administrator

Multicloud Strategy

by System Administrator - Tuesday, 7 February 2017, 6:19 PM

For enterprises, multicloud strategy remains a siloed approach

by Trevor Jones

Enterprises need a multicloud strategy to juggle AWS, Azure and Google Cloud Platform, but the long-held promise of portability remains more dream than reality.

Most enterprises utilize more than one of the hyperscale cloud providers, but "multicloud" remains a partitioned approach for corporate IT.

Amazon Web Services (AWS) continues to dominate the public cloud infrastructure market it essentially created a decade ago, but other platforms, especially Microsoft Azure, gained a foothold inside enterprises, too. As a result, companies must balance management of the disparate environments with questions of how deep to go on a single platform, all while the notion of connectivity of resources across clouds remains more theoretical than practical.

Similar to hybrid cloud before it, multicloud has an amorphous definition among IT pros as various stakeholders glom on to the latest buzzword to position themselves as relevant players. It has come to encompass everything from the use of multiple infrastructure as a service (IaaS) clouds, both public and private, to public IaaS alongside platform as a service (PaaS) and software as a service (SaaS).

The most common definition of a multicloud strategy, though, is the use of multiple public cloud IaaS providers. By this strictest definition, multicloud is already standard operations for most enterprises. Among AWS customers, 56% said they already use IaaS services from at least one other vendor, according to IDC.

"If you go into a large enterprise you're going to have different teams across the organization using different cloud platforms," said Jeff Cotten, president of Rackspace, based in Windcrest, Texas, which offers managed services for AWS and Azure. "It's not typically the same product teams leveraging both platforms. It's often different business units, with a different set of apps, likely different people and organizational constructs."

The use of multiple clouds is often foisted upon enterprises. Large corporations may opt for a second vendor when their preferred vendor has no presence in a particular market. Typically, however, platform proliferation is driven by lines-of-business that either procured services on their own or were brought under an IT umbrella through mergers and acquisitions.

"By the time these two get to know each other it's too late and they've gone too far down the path to make the change," said Deepak Mohan, research director at IDC.

An apples-to-apples comparison of market share among the three biggest hyperscale IaaS providers --AWS, Azure and Google Cloud Platform (GCP) -- is difficult to surmise because each company breaks out its revenues differently. Microsoft is closing the gap, while GCP saw a significant bump in 2016 as IT shops begin testing the platform, according to 451 Research. But by virtually any metric, AWS continues to lead the market by a sizable margin that is unlikely to close any time soon.

Nevertheless, the competition between the big three is not always a fight for the same IT dollars, as each takes a slightly different tact to wooing customers. Amazon, though softening to hybrid cloud, continues its stand-alone, all-encompassing approach, while Microsoft has a greater percentage of enterprise accounts as it positions itself to accommodate existing customers' journey from on premises to the cloud. Google, meanwhile, is banking on its heritage around big data algorithms, containers and machine learning to get ahead of the next wave of cloud applications.

"[IT shops] are not evaluating the three hyperscale guys purely on if AWS is cheaper, or which has the better portal interface or the coolest features because there's parity there," said Melanie Posey, research vice president at 451. "It's not a typical horse race story."

The move away from commoditization has also shifted how enterprises prioritize portability. In the past, companies emphasized abstracting workloads to pit vendors against each other and get better deals, but over the past year they have come to prize speed, agility and flexibility over cost, said Kip Compton, vice president of Cisco's cloud platform and services organization.

"We're actually seeing CIOs and customers starting to view these clouds through the lens of, 'I'm going to put the workloads in the environment that's best for that workload' and 'I'm going to worry a lot less about portability and focus on velocity and speed and taking more advantage of a higher- level service that each of these clouds offer.'"

Silos within a multicloud strategy

Even as the hyperscale vendors attempt to differentiate, picking and choosing providers for specific needs typically creates complications and leads to a siloed approach, rather than integration across clouds.

"It's more trouble than it's worth if you're going to do it that way," Posey said. "What ends up happening is company XYZ is running some kind of database function on AWS, but they're running customer-facing websites on Azure and never the two shall meet."

The idea of multicloud grew conceptually out of the traditional server model where a company would pick between Hewlett Packard Enterprise (HPE) or IBM and build its applications on top, but as the cloud evolved it didn't follow that same path, Mohan said.

"The way clouds were evolving fundamentally differs and there wasn't consistency, so integrating was hard unless you did a substantial amount of investment to do integration," he said.

It is also important to understand what is meant by a "multicloud" strategy, whether an architecture supports a multicloud strategy or that workloads actually run on multiple clouds.

"There's a difference between being built for the cloud or built to run in the cloud, and it's difficult from a software development perspective to have an architecture that's cloud agnostic and can run in either one," said Dave Colesante, COO of Alert Logic, a cloud security provider in Houston.

Alert Logic is migrating from a mix of managed colocation and AWS to being fully in the cloud as it shifts to a microservices model. The company offers support for AWS and Azure, but all of the data management ends up back in AWS.

The company plans to design components of its SaaS application to provide flexibility and to assuage Microsoft customers that want the back end in Azure, but that creates limitations of what can be done on AWS.

"It's a Catch-22," Colesante said. "If you want to leverage the features and functions that Amazon makes available for you, you probably end up in a mode where you're hooked into some of the things."

The two key issues around multicloud center on the control plain and the data plain, IDC's Mohan said. A consistent way to manage, provision and monitor resources across all operational aspects of infrastructure is a challenge that's only exacerbated when enterprises go deeper on one platform than another.

On the data side, the concept of data gravity often discourages moving workloads between clouds because it's free to move data in, but expensive to move data out. There are also limitations on the speed and ease by which they can be migrated.

Getting the best of both worlds

Companies with fewer than 1,000 employees typically adopt a multicloud strategy to save money and to take advantage of new services as they become available, but the rationale changes with larger enterprises, Mohan said.

"As you move up the spectrum, the big reason is to avoid lock-in," he said. "We attribute that to the nature of apps that are being run, and that they're probably more business critical IT app run by organizations internally."

The largest organizations, though, seem get the best of both worlds.

"Especially if it's for experimentation with new initiatives, they have much higher tolerance for going deep onto one platform," Mohan said. "For bread-and-butter workloads, volatility and jumping around services is not as important."

At the same time, large organizations that prioritize reliability, predictability, uptime and resiliency tend to favor the lowest common denominators of cost savings and commodity products, he said.

Motorola Mobility takes an agnostic view of cloud and does in fact look to move workloads among platforms when appropriate. It has a mix of AWS, GCP and Azure, along with its own OpenStack environment, and the company has put the onus on standardized tooling across platforms.

"If I can build an application at the simplest level of control, I should be able to port that to any cloud environment," said Richard Rushing, chief information security officer at Motorola Mobility. "This is kind of where we see cloud going."

Ultimately, a multicloud strategy comes down to IT shops' philosophical view, whether it's another form of a hosted environment, or a place to use APIs and put databases in order to take advantage of higher-level services, but can lead to lock-in, he added.

"I don't think there's a right way or a wrong way," Rushing said. "It depends on what you feel comfortable with."

Despite that agnostic view, Motorola hasn't completely shied away from services that tether it to a certain provider.

"Sometimes the benefit of the service is greater than [the concern] about what you want to be tied down to," Rushing said. "It's one of those things where you have to look at it and say, is this going to wrap me around something that could benefit me, but what else is it going to do?"

Experimentation and internal conversations about those tradeoffs can be healthy because it opens an organization to a different way of doing things, but it also forces developers to justify a move that could potentially restrict the company going forward, he added.


Cross-cloud not yet reality

A wide spectrum of companies has flooded the market to fill these gaps created by multicloud, despite some high-profile failures including Dell Cloud Manager. Smaller companies, such as RightScale and Datapipe, compete with legacy vendors, such as HPE, IBM and Cisco, and even AWS loyalists like 2nd Watch look to expand their capabilities to other providers. Other companies, such as NetApp and Informatica, focus on data management across environments.

Of course, the ultimate dream for many IT shops is true portability across clouds, or even workloads that span multiple clouds. It's why organizations abstract their workloads to avoid lock-in. It's also what gave OpenStack so much hype at its inception in 2010, and helped generate excitement about containers when Docker first emerged in 2013. Some observers see that potential coming to fruition in the next year or two, but for now those examples remain the exception to the rule.

What you'd eventually like to get to is data science analytics on platform A, your infrastructure and processing and storage on platform B and something else on platform C, but that's a number of years before that becomes a reality.

Dave ColesanteCOO, Alert Logic

The hardest path to span workloads across clouds is through the infrastructure back end, Colesante said. For example, if an AWS customer using DynamoDB, Kinesis or Lambda wants to move to Azure, there are equivalents in Microsoft's cloud. However, the software doesn't transparently allow users to know the key-value store equivalent between the two, which means someone has to rewrite the application for every environment it sits on.

Another obstacle is latency and performance, particularly the need for certain pieces of applications to be adjacent. Cisco has seen a growing interest in this, Compton said, with some banks putting their database in a colocation facility near a major public cloud to resolve the problem.

Alert Logic's data science teams are exploring what Google has to offer, but Colesante pumped the brakes on the cross-cloud utopia, noting that most companies are still in the earliest stages of cloud adoption.

"What you'd eventually like to get to is data science analytics on platform A, your infrastructure and processing and storage on platform B and something else on platform C," he said, "but that's a number of years before that becomes a reality."

Trevor Jones is a news writer with SearchCloudComputing and SearchAWS. Contact him at

Next Steps

Picture of System Administrator

Multifactor Authentication (MFA)

by System Administrator - Tuesday, 16 June 2015, 9:11 PM

Multifactor Authentication (MFA)

Posted by Margaret Rouse

Multifactor authentication is one of the most cost-effective mechanisms a business can deploy to protect digital assets and customer data.

Multifactor authentication (MFA) is a security system that requires more than one method of authentication from independent categories of credentials to verify the user’s identity for a login or other transaction. 

Multifactor authentication combines two or more independent credentials: what the user knows (password), what the user has (security token) and what the user is (biometric verification). The goal of MFA is to create a layered defense and make it more difficult for an unauthorized person to access a target such as a physical location, computing device, network or database. If one factor is compromised or broken, the attacker still has at least one more barrier to breach before successfully breaking into the target.

Typical MFA scenarios include:
  • Swiping a card and entering a PIN.
  • Logging into a website and being requested to enter an additional one-time password (OTP) that the website's authentication server sends to the requester's phone or email address.
  • Downloading a VPN client with a valid digital certificate and logging into the VPN before being granted access to a network.
  • Swiping a card, scanning a fingerprint and answering a security question.
  • Attaching a USB hardware token to a desktop that generates a one-time passcode and using the one-time passcode to log into a VPN client.


One of the largest problems with traditional user ID and password login is the need to maintain a password database. Whether encrypted or not, if the database is captured it provides an attacker with a source to verify his guesses at speeds limited only by his hardware resources. Given enough time, a captured password database will fall.As processing speeds of CPUs  have increased, brute force attacks have become a real threat. Further developments like GPGPU password cracking and rainbow tables have provided similar advantages for attackers. GPGPU cracking, for example, can produce more than 500,000,000 passwords per second, even on lower end gaming hardware. Depending on the particular software, rainbow tables can be used to crack 14-character alphanumeric passwords in about 160 seconds. Now purpose-built FPGA cards, like those used by security agencies, offer ten times that performance at a minuscule fraction of GPU power draw. A password database alone doesn't stand a chance against such methods when it is a real target of interest.In the past, MFA systems typically relied upon two-factor authentication. Increasingly, vendors are using the label "multifactor" to describe any authentication scheme that requires more than one identity credential.

Authentication factors

An authentication factor is a category of credential used for identity verification. For MFA, each additional factor is intended to increase the assurance that an entity involved in some kind of communication or requesting access to some system is who, or what, they are declared to be. The three most common categories are often described as something you know (the knowledge factor), something you have (the possession factor) and something you are (the inherence factor).

Knowledge factors – information that a user must be able to provide in order to log in. User names or IDs, passwords, PINs and the answers to secret questions all fall under this category. See also: knowledge-based authentication (KBA)

Possession factors - anything a user must have in their possession in order to log in, such as a security token, a one-time password (OTP) token, a key fob, an employee ID card or a phone’s SIM card. For mobile authentication, a smartphone often provides the possession factor, in conjunction with an OTP app.

Inherence factors - any biological traits the user has that are confirmed for login. This category includes the scope of biometric authentication  methods such as retina scans, iris scans fingerprint scans, finger vein scans, facial recognition, voice recognition, hand geometry, even earlobe geometry.

Location factors – the user’s current location is often suggested as a fourth factor for authentication. Again, the ubiquity of smartphones can help ease the authentication burden here: Users typically carry their phones and most smartphones have a GPS device, enabling reasonable surety confirmation of the login location.

Time factors – Current time is also sometimes considered a fourth factor for authentication or alternatively a fifth factor. Verification of employee IDs against work schedules could prevent some kinds of user account hijacking attacks. A bank customer can't physically use their ATM card in America, for example, and then in Russia 15 minutes later. These kinds of logical locks could prevent many cases of online bank fraud.

Multifactor authentication technologies:

Security tokens: Small hardware devices that the owner carries to authorize access to a network service. The device may be in the form of a smart card or may be embedded in an easily-carried object such as a key fob or USB drive. Hardware tokens provide the possession factor for multifactor authentication. Software-based tokens are becoming more common than hardware devices.

Soft tokens: Software-based security token applications that generate a single-use login PIN. Soft tokens are often used for multifactor mobile authentication, in which the device itself – such as a smartphone – provides the possession factor.

Mobile authentication: Variations include: SMS messages and phone calls sent to a user as an out-of-band method, smartphone OTP apps, SIM cards and smartcards with stored authentication data.

Biometric authentication methods such as retina scans, iris scans fingerprint scans, finger vein scans, facial recognition, voice recognition, hand geometry and even earlobe geometry.

GPS smartphones can also provide location as an authentication factor with this on board hardware.

Employee ID and customer cards, including magnetic strip and smartcards.

The past, present and future of multifactor authentication

In the United States, interest in multifactor authentication has been driven by regulations such as the Federal Financial Institutions Examination Council (FFIEC) directive calling for multifactor authentication for Internet banking transactions.

MFA products include EMC RSA Authentication Manager and RSA SecurID, Symantec Validation and ID Protection Service, CA Strong Authentication, Vasco IDENTIKEY Server and DIGIPASS, SecureAuth IdP, Dell Defender, SafeNet Authentication Service and Okta Verify.

Next Steps

Learn more about the benefits of multifactor authentication in the enterprise and read this comparison of the latest multifactor authentication methods.When it comes to MFA technology, it's important to determine which deployment methods and second factors will best suit your organization. This Photo Story outlines your options.

Continue Reading About multifactor authentication (MFA)


Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 9:47 PM
Picture of System Administrator


by System Administrator - Thursday, 11 July 2013, 5:21 PM
Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 7:48 PM
Picture of System Administrator


by System Administrator - Thursday, 2 May 2013, 10:27 PM



Navegación a CiegasNavegación inconsentidaNavegación intuitivaNavegación SincronizadaNavegadorNavegarNCNerdNetiquetaNetPCNetscape NavigatorNetzapingNewbieNewcomerNewsNicho de mercadoNichólogo,NickNNTPNo repudioNodoNube de etiquetas.


=> Navegación a Ciegas: Acción de navegar por Internet sin ton ni son, es decir, sin tener una ruta prefijada o unos objetivos determinados de búsqueda. Este tipo de navegación, especialmente en usuarios novatos, puede resultar muy frustrante. Desde el punto de vista de marketing es una pérdida de tiempo y de dinero. En inglés es: Blind surfing.

=> Navegación inconsentida: Uso de un ordenador conectado a Internet desde el puesto de trabajo para visitar sitios web cuyo contenido y temática no tiene relación alguna con la actividad laboral que desempeña el trabajador en la empresa. Habitualmente se trata de páginas de se(x)o, esotéricas o relacionadas con aficiones cuya visión supone que el empleado pierda tiempo y desatienda sus obligaciones. Los límites de esta navegación, a fin de evitar conflictos, deben estar perfectamente definidos en el convenio colectivo. Nota: el "(x)" esta puesto adrede para que no catalogen esta palabra algunos sistemas de búsqueda de contenido no relacionados con el que nos ocupa.

=> Navegación intuitiva: Acción de buscar direcciones en Internet deduciendo su posible nombre en la Red sin hacer uso de los buscadores. Por ejemplo, si buscamos información sobre algo relacionado con la población de Alcoi, en Alicante (España) es fácil que lo encontremos a partir de: También podría incluirse en esta modalidad la localización de enlaces desde un portal temático.

=> Navegación Sincronizada: Sistema que, mediante una aplicación, permite desde un ordenador guiar la navegación en otro. También se le conoce como: “web touring”. Este sistema se emplea con frecuencia en los servicios de Atención al Cliente Online y sirve incluso para que el técnico que esta ayudando al consumidor le pueda completar los formularios que éste último tiene en su pantalla. También es muy utilizado en el eLearning o formación a distancia por medio de Internet. Habitualmente la navegación sincronizada se realiza en paralelo a otro servicio o canal de comunicación como pueda ser un chat o un sistema de voz IP. De esta forma mientras se navega en paralelo se pueden ir dando las oportunas explicaciones o preguntando las dudas que corresponda. Hay muchas aplicaciones comerciales para realizar la navegación sincronizada. Junto a las anteriores puede citarse: ezWebcar ( que es gratuita. En inglés, cobrowsing.

=> Navegador: Aplicación informática que sirve para comunicar el ordenador de un usuario con un servidor web e interpretar los datos que recibe de este último. Es un programa cliente que pide archivos (html, jpg, o de cualquier tipo) que están depositados, alojados, en un servidor web a fin de que le sean entregados generalmente en modo de página web. La mayoría de internautas identifican los navegadores simplemente como las herramientas que sirven para navegar, es decir, realizar una permanente solicitud de los archivos que contienen los servidores web. Los navegadores más utilizados por los usuarios son el Microsoft Internet ExplorerNetscape NavigatorOpera, y Mozilla. En inglés: browser.

=> Navegar: Acción de visitar direcciones de páginas web en Internet. Es lo mismo que "surfear".

=> NC: Dispositivo con apariencia de ordenador normal pero sin ningun tipo de programa (software) que sirve como interfaz hacia el mundo conectado. Teóricamente tiene que estar conectado a algunos servidores en la Red de donde se va bajando aquellos programas que necesite para funcionar. Hay quien lo compara con las antiguas terminales tontas de los primeros ordenadores.

=> Nerd: Término del argot del inglés americano que apareció en los años 1950 en Estados Unidos ( En la actualidad hace referencia a un tipo de persona que trabaja como informático y es técnicamente brillante pero de difícil carácter. Entre sus características destacan el ser un inadaptado social, tímido, sin conversación, alérgico a todo lo que no sea la alta tecnología. Los nerds se sienten cómodos detrás de una pantalla y con un teclado del que solo se separan para comerse una pizza o cualquier otro alimento que se pueda ingerir al tiempo que se esta con un ordenador.

=> Netiqueta: Conjunto de reglas de cortesía que se dan entre la Comunidad Internauta, es decir, entre los diferentes usuarios de Internet. Por ejemplo, el spam, o correo no solicitado, es una violación flagrante de la Netiqueta. En: "Internet en la Familia: Guía de buenas prácticas" (, obra de la autora de este Vocabulario, hay un Anexo con las "Normas de Netiqueta" aplicables al uso general de Internet (correo electrónicochatpáginas webforos web, etc) para cualquier usuario, con independencia de la edad, o del uso que le de a este medio. En inglés: Netiquette.

=> NetPC: Ordenador personal en el que se han configurado una serie de aplicaciones determinadas y no se pueden añadir más. El objetivo es que solo pueda ser empleado para hacer determinados usos de Internet.

=> Netscape Navigator: Navegador desarrollado en la empresa estadounidense Netscape en 1994 por el mismo equipo que había desarrollado el Mosaic. Es, junto con el Internet Explorer, el de mayor implantación en Internet. El Netscape se puede bajar gratis en:

=> Netzaping: Término acuñado por Enrique de la Rica para definir la acción de ir enlazando, es decir, visitando direcciones de Internet sin llegar a detenerse demasiado tiempo en ninguna.

=> Newbie: Termino del argot del inglés americano que, en español, significa: principiante, es decir, novato en Internet.

=> Newcomer: Recién llegado o alguien que comienza desde cero cualquier actividad sea incorporarse a Internet o sea trabajar en una empresa nueva en un determinado sector.

=> News: Modo resumido de denominar a los Grupos de Noticias, es decir, los foros de discusión sobre un tema determinado, por ejemplo:, arbitrados por Usenet. Se accede a ellos a través de unos servidores cuyo nombre suele llevar la palabra "news" como por ejemplo: "". Algunos de esos servidores de noticias son de acceso público y otros están limitados a los clientes de un determinado ISP. Los grupos de noticias o news han sido una de las principales plataformas de generación de Comunidades Virtuales.

=> Nicho de mercado: Sector pequeño de un mercado compuesto por un grupo muy específico de potenciales compradores (consumidores con necesidades y características homogéneas) que no tienen satisfecha una determinada y bien definida demanda y para los que es factible e interesante crear una nueva categoría de productos o servicios que poder ofrecerles. Los nichos existen porque, o bien no han sido identificados con anterioridad, o bien porque no les han resultado interesantes a otros participantes en ese el mercado (Tutorial sobre nichos). En inglés: Market Niche.

=> Nichólogo: Profesional del marketing especialista en la búsqueda, identificación y modelización de nichos en un determinado contexto de mercado, tanto interno como externo.

=> Nick: Abreviatura de "nickname" que, en español, significa: apodo o alias por el que los usuarios se dan a conocer en Internet para mantener su anonimato. Por ejemplo, "bagheera" es el nick de Mar Monsoriu Flor, autora de este "Vocabulario Técnico de Marketing e Internet" y fundadora de la 1ª Comunidad Virtual de Profesional y Multiplataforma dedicada al marketing y afines de La Red.

=> NNTP: Acrónimo de las palabras inglesas: "Network News Transfer Protocol". Protocolo que se emplea en Internet para transferir artículos en forma de mensajes de correo electrónico, en los grupos de noticias.

=> No repudio: Situación en la cual el receptor de un mensaje de correo electrónicono puede negar haberlo recibido. Este concepto jurídico, en el ámbito del marketing e Internet, también se aplica al caso en el que el responsable del contenido de una web no pueda negar que ha sido el quien la ha publicado en la Red.

=> Nodo: Punto de comunicación dentro de una red de ordenadores. Un nodo es, además, un ordenador de una red. Los cuatro nodos que inauguraron, en septiembre de 1969, Internet fueron: el de laUniversidad de Los Angeles en California, (desde cuyo Boulter Hall se llevo a cabo la primera comunicación), el Instituto de Investigación de Stanford, la UC de Santa Barbara y la Universidad de Utah en Salt Lake City.

=> Nube de etiquetas: Representación gráfica de las palabras clave más utilizadas en una página web. Generalmente aparecen ordenadas alfabéticamente y con tipografías de diferente tamaño en función de la importancia de cada palabra o etiqueta. La palabra que se repite más o sea más relevante en una nube de etiquetas tendrá un tamaño mayor que el resto y será por tanto más fácil de identificar de un vistazo. En inglés: tag cloud“. Para generar la nube de etiquetas de una web se pueden emplear diferentes herramientas gratuitas como, por ejemplo, la de Zoomclouds, que está especialmente pensada para todos aquellos contenidos que sean sindicables como pueden ser los de los blogs.

Picture of System Administrator


by System Administrator - Wednesday, 10 July 2013, 7:36 PM
Picture of System Administrator


by System Administrator - Thursday, 9 May 2013, 2:37 AM
  • Nonlinear Management (NLM) is a superset of management techniques and strategies that allows order to emerge by giving organizations the space to self-organize, evolve and adapt, encompassing Agile, Evolutionary and Lean approaches, as well as many others.


  • Necesidad: Es un requisito de alto nivel orientado al negocio, cuyo origen radica en el usuario o el propietario y debe ser satisfecho por el resultado del proyecto.
  • Negociación: Es el arte de lograr en la mayor medida de lo posible lo que se desea de una transacción, lo que supone un proceso de intercambio que permita alcanzar una satisfacción equilibrada entre las partes interesadas.
  • Networking: Es la actividad a través de la cual un individuo establece contacto con personas con quienes comparte un interés común, valiéndose de las redes sociales o relaciones cara a cara.
  • Nivelación del recurso: Es cualquier forma de análisis de red en las que las decisiones de programación (fechas de comienzo y terminación) son dirigidas por preocupaciones que se desprenden de la administración de recursos.
  • Nodo: Es un de los puntos de definición de una red; un punto de cruce conectado a algunas o todas de las otras líneas de dependencia. Véase también método de diagramación de flechas y método de diagramación de precedencias.
  • Norma (Standard):Es un documento que se obtiene mediante el consenso y es aprobado por un organismo reconocido; brindando reglas de comportamiento y características para la ejecución de actividades que permitan alcanzar un nivel favorable de orden y planificación dentro de un contexto específico.
Picture of System Administrator


by System Administrator - Thursday, 11 July 2013, 6:13 PM
  • named pipe - In computer programming, a named pipe is a method for pas...
  • native app - A native application (native app) is an application progr...
  • native app - A native application (native app) is an application progr...
  • native application - A native application (native app) is an a...
  • native code - Native code is computer programming (code) that is comp...
  • natural language - In computing, natural language refers to a hu...
  • natural language processing - Natural language proces...
  • natural language processing (NLP) - Natural lan...
  • nested - In general, something that is nested is fully contained within so...
  • NetRexx - NetRexx, a programming language designed to be easier to learn ...
  • NetWeaver - NetWeaver is an application builder from SAP for integratin...
  • neural network - In information technology, a neural network is a ...
  • nil - In general use, nil (a contraction of Latin "nihil") means "nothing" or...
  • NLP - Natural language processing (NLP) is the ability of a computer to under...
  • no op - A no op (or no-op), for no operation, is a computer instruction tha...
  • no op (no operation) - A no op (or no-op), for no operation,...
  • no operation - A no op (or no-op), for no operation, is a computer i...
  • Node.js - Node.js, often called simply "Node" in conversation, is a devel...
  • non-breaking space - The non-breaking space is a special chara...
  • nroff - nroff and troff are UNIX commands (and the utilities that support t...
Picture of System Administrator


by System Administrator - Friday, 31 May 2013, 11:13 PM
Picture of System Administrator


by System Administrator - Saturday, 1 June 2013, 3:17 PM

NewsML - a standard way to describe news information content so that it can distributed and reused widely on Web sites and other media.

Picture of System Administrator


by System Administrator - Sunday, 15 June 2014, 2:32 PM

09 JUN 14 | Una revisión actualizada y en profundidad

¿Qué es la narcolepsia?
Una enfermedad acerca de la que hay mucho conocimiento novedoso pero que en la que se piensa muy poco. El retraso promedio de diagnóstico es entre 16 y 22 años.

Dres. Swarup Kumar, Haritha Sagili
Journal of Clinical and Diagnostic Research. 2014 Feb, Vol-8(2):190-195


La narcolepsia es un trastorno crónico del sueño que afecta negativamente la calidad de vida de quien la padece. La edad habitual de inicio es entre los 15 y 25 años. Se caracteriza por la tétrada clásica de:

  1. Somnolencia diurna excesiva.
  2. Cataplejía definida como una breve pérdida del tono muscular después de una fuerte emoción.
  3. Alucinaciones hipnagógicas (que se producen al inicio del sueño).
  4. Parálisis del sueño.

La presentación clínica es variable en función de los síntomas y la intensidad a través del tiempo. Existen dos grupos distintos de pacientes, los que padecen narcolepsia con cataplejía y aquellos que presentan narcolepsia sin cataplejía.

Nuestra actual comprensión de la patogénesis de la narcolepsia es que se trata de una pérdida de un neuropéptido hipotalámico específico, hipocretina, mediado por un trastorno autoinmune. La pérdida de neuronas de hipocretina ha sido demostrada en la narcolepsia con cataplejía [1-4]. 

Las evidencias, como su fuerte asociación con el HLA (antígeno leucocitario humano) DQB1 * 06:02, sugieren fuertemente una base autoinmune para la narcolepsia [5]. 

Estudios recientes también han demostrado una variedad de asociaciones  de factores genéticos y ambientales.

Sería necesario realizar más investigaciones para confirmar la hipótesis autoinmune y también abordar el papel de estos factores en la patogénesis de la narcolepsia. Además, una mejor comprensión de las vías nerviosas detrás de los síntomas nos proporcionará un valioso conocimiento de la neurobiología de la narcolepsia.

Antecedentes históricos

La palabra narcolepsia, de las palabras griegas "narco" y "lepsy" significa literalmente un ataque de estupor / rigidez. La terminología fue utilizada por primera vez por el médico francés, Gélineau  a finales del siglo XIX en su informe clásico de un fabricante de barriles de vino que sufría de la enfermedad. Es interesante mencionar que él no podía diferenciar los ataques de sueño de los episodios de debilidad muscular provocados por emociones. Esto último fue descrito como una entidad separada por Loewenfeld como la cataplejía.

En la primera mitad del siglo XX no hubo mucha investigación sobre la narcolepsia. Daniels en 1934 en primer lugar, hizo hincapié en la tétrada clásica de la somnolencia diurna excesiva, la cataplejía, parálisis del sueño y alucinaciones hipnagógicas que posteriormente fueron definidas por Yoss y Daly en la Clínica Mayo [6]. 

El descubrimiento de los movimientos oculares rápidos (REM) del sueño en 1953 por Kleitman N y su estudiante Aserinsky logró hacer resurgir el interés en la investigación sobre la narcolepsia.

En la década siguiente, la asociación entre períodos REM al inicio del sueño y la narcolepsia se informó por primera vez por Vogel et al en su artículo: “El sueño de la narcolepsia”. 

Otros estudios con análisis de EEG de los pacientes con narcolepsia la describieron como una disrregulación primaria del sueño REM. La Prueba de Latencia Múltiple del sueño (MSLT) evalúa objetivamente los episodios de somnolencia excesiva y ahora es una herramienta de diagnóstico valiosa en la narcolepsia fue descrita por primera vez por Carskadon et al. [7].

En la década de 1980 se produjo una mayor comprensión de la narcolepsia cuando se propuso una causalidad autoinmune.  

Honda et al., describieron en primer lugar la asociación entre la narcolepsia y los antígenos HLA (HLA DR2) [8]. Otros investigadores vincularon entonces a otros haplotipos HLA como el HLA DQB1 * 0602 con la narcolepsia [5]. 

El año 1998 marcó un hito en la investigación de la narcolepsia con el descubrimiento del neuropéptido, hipocretina / orexina, cuya ausencia, se cree que es responsable de la mayor parte de los síntomas [1]. 

En los años siguientes, varios estudios han mostrado evidencia convincente de que la narcolepsia puede ser causada por una pérdida en la señalización de la orexina / hipocretina como lo demuestra la falta de hipocretina en el hipotálamo y en el LCR de pacientes con la enfermedad [2,3]. Muchos investigadores especularon entonces un mecanismo autoinmune de la enfermedad, que ha sido apoyado por varios estudios.


"Existe un importante retraso en el diagnóstico de la narcolepsia con un promedio de 16 a 22 años desde la aparición de los síntomas"

La prevalencia de la narcolepsia se ha reportado en el rango de 0,02 hasta 0,067 % en América del Norte, las poblaciones de Europa y Asia occidental [9]. Sin embargo, dos estudios japoneses informaron frecuencias claramente más altas de 0,16 y 0,18 %, respectivamente. Si estas observaciones reflejan una particularidad de la población japonesa o un sesgo en la metodología de los dos estudios (los dos estudios no requerían de la polisomnografía para verificar el diagnóstico) es un tema que queda por investigar. Ahora se ha sugerido que las diferencias en la prevalencia en parte pueden estar relacionadas con la asociación entre la narcolepsia y la prevalencia de HLA DQB1 * 0602 fenotipo [10].

Con mayor frecuencia se han realizado estudios epidemiológicos para la narcolepsia con cataplejía, los otros síntomas no están bien definidos en los estudios epidemiológicos. Además, las altas tasas de prevalencia de la parálisis del sueño (6,2 %) y de las alucinaciones hipnagógicas (24,1 %) en la población general indican que estos síntomas no son específicos para la narcolepsia.

Para la narcolepsia sin cataplejía; los estudios han demostrado que este subgrupo representa aproximadamente el 10-50 % de todos los casos de narcolepsia [5].

Las tasas de incidencia de la narcolepsia con o sin cataplejía son: 1,37 por cada 100.000 habitantes por año y para la narcolepsia con cataplejía de 0,74 por 100.000 habitantes por año en los EE.UU. [9]. La tasa de incidencia es más alta en la segunda década y el trastorno es más común entre los hombres [9].

Aunque puede haber variaciones en la incidencia y las tasas de prevalencia entre los diversos grupos étnicos, hay una sorprendente similitud en la presentación clínica y en la historia natural de la narcolepsia y cataplejía entre los pacientes de diferentes grupos étnicos y orígenes culturales. 

El inicio de la narcolepsia ocurre típicamente en la adolescencia, con una edad media de inicio de síntomas entre los 15 y 30 años [11]. Sin embargo, en raras ocasiones, la edad de inicio de los síntomas puede ser tan tarde como a los 40 años de edad. 

Existe un importante retraso en el diagnóstico de la narcolepsia con un promedio de 16 a 22 años desde la aparición de los síntomas que indican que no todos casos diagnosticados después de los 30 años se deben a la aparición tardía de los síntomas. Este retraso en el diagnóstico es especialmente pronunciado cuando la cataplejía está ausente inicialmente.

Los estudios preliminares han mostrado un aumento en la asociación de la narcolepsia con el momento del nacimiento con mayor frecuencia en el mes de marzo se denomina la "Efecto del nacimiento en marzo" [12]. El riesgo para la narcolepsia con cataplejía clara es aparentemente más del doble por un nacimiento en el mes de marzo lo que sugiere que los factores ambientales durante el período prenatal o neonatal son etiológicamente factores importantes [12].

Una observación interesante es que mientras que el haplotipo HLA DQB1 *0602 confiere una fuerte susceptibilidad a la narcolepsia; hay una protección dominante contra la tipo I diabetes. Siebold et al., observó una interacción no reconocida previamente entre la estructura cristalina de los péptidos, lo que implica que cambios sutiles en la presentación del péptido pueden, ya sea conferir protección contra la diabetes tipo 1 o susceptibilidad a la narcolepsia [13].


La evidencia actual sobre la patogenia de la narcolepsia proviene de la mayor parte de los estudios que se centraron en la narcolepsia con cataplejía con especial interés hacia los factores genéticos y ambientales.

Factores genéticos

Los aspectos genéticos de la narcolepsia son complejos. Los cambios en varios genes han sido identificados e influyen en el riesgo de desarrollar la narcolepsia, aunque no está claro cómo influyen en el riesgo de desarrollar la condición. 

El cambio genético mejor descrito es el gen DQB1 HLA que es parte del antígeno leucocitario humano (HLA) complejo [5]. Este gen codifica una proteína que juega un papel vital en la presentación de antígenos (péptidos) para el sistema inmunológico. Otros genes de HLA que están asociados con la narcolepsia incluyen HLA DRB1 y HLA DQA1 [14]. Los alelos HLA juegan un papel primordial en la predisposición a la enfermedad.

Aunque la mayoría de los casos de narcolepsia son esporádicos, hay casos concretos que muestran una agrupación familiar. El riesgo de narcolepsia en parientes de primer grado de los pacientes es de 10 a 40 veces mayor que en la población general [15]. También se observa que en las familias múltiples son más frecuentes HLA DQB1 negativos que en los casos esporádicos, lo que sugiere la importancia de los factores genéticos no HLA.

Los genes no HLA que se han estudiado en la narcolepsia son: CPT1B (1B carnitinpalmitoyltransferasa), CHKB (colina quinasa beta), TNF (factor de necrosis tumoral) y TNFRSF1B (receptor de TNF súper 1B miembro de la familia, se cree que desempeñan un papel en la función inmunológica. 

Haplotipo HLA

Los antígenos leucocitarios humanos (HLA) se asocian a muchas enfermedades autoinmunes y la narcolepsia tiene la asociación más fuerte conocida HLA. Se ha encontrado que una variación del gen HLA - DQB1 llamado HLA - DQB1 *0602 tiene una asociación primaria con la narcolepsia, especialmente en pacientes que presentan narcolepsia con cataplejía [5]. Existe un riesgo 200 veces mayor de desarrollar la narcolepsia simplemente con ser portador de este gen.14

Más del 85 % de los pacientes con narcolepsia con cataplejía tienen el gen HLA DQB1 *0602, a menudo en combinación con el HLA DRB1 *1501, mientras que sólo alrededor del 40 % de los pacientes con narcolepsia sin cataplejía tienen el HLA DQB1 *0602 lo que sugiere una mayor heterogeneidad en la narcolepsia sin cataplejía [16]. 

Aunque la asociación de HLA DQB1 con narcolepsia es más específica, su utilidad como una prueba de detección o de diagnóstico está limitada por el hecho de que tiene una alta prevalencia (tan alta como 12 % -38 %) en la población general y a que su sensibilidad es más alta en los pacientes con narcolepsia con cataplejía, un grupo en el que el diagnóstico adicional rara vez es necesario [17].


Las hipocretinas, también llamadas orexinas, son neuromoduladores del hipotálamo dorsolateral que actúan en la regulación de los ciclos de sueño-vigilia, la ingesta de alimentos y en el comportamiento de búsqueda del placer.

Se describen dos hipocretinas denominadas: hipocretina (HCRT) 1 y 2 o orexina (ORX) A y B, respectivamente. Ambas hipocretinas son péptidos aminoácidos, la HCRT 1 (hipocretina1) tiene puentes disulfuro y la HCRT 2 (hipocretina 2) muestra una identidad de aminoácidos del 46% con la de HCRT 1 [18].

El gen que codifica para hipocretinas es decir HCRT (gen precursor de neuropéptido) está situado en el cromosoma 17q21 - q24. También se han descrito receptores correspondientes para hipocretinas es decir HCRTR 1 (receptor de hipocretina 1) y HCRTR 2 (receptor de hipocretina 2) [18]. 

La deficiencia de hipocretina conduce a anormalidades de estos sistemas, incluyendo el mantenimiento de la vigilia y la regulación de las transiciones entre el sueño y la vigilia.

Si bien es evidente que la pérdida de mutaciones de función en el gen HCRT debe causar la narcolepsia , es de señalar que tales mutaciones son poco frecuentes en los casos de narcolepsia humana y se piensa que la pérdida de neuronas de hipocretina es por un mecanismo diferente, posiblemente, una respuesta inmunológica [1,3,19 .

Varios estudios han demostrado que una pérdida de neuronas de hipocretina sin duda provoca narcolepsia con cataplejía [1-4]. La evidencia para la deficiencia de hipocretina en la narcolepsia es la siguiente:

  1.   El primer vínculo respecto que la deficiencia de hipocretina podría estar asociada con la narcolepsia fue del estudio de Foutz et al. que mostró un patrón de herencia autosómico recesivo en Doberman [20] . Más tarde fue identificado como una mutación en el receptor 2 del gen hipocretina (orexina) por Lin et al . [21].
  2. Uno de los principales informes de la deficiencia de hipocretina en la narcolepsia - cataplejía provenían del estudio de Nishino et al. [1]. Fue un estudio de casos y controles en el que 7 de los 9 pacientes con narcolepsia con cataplexia no tenían hipocretina detectable, mientras que estos neuropéptidos fueron detectables en todos sus controles emparejados.
  3. Los estudios realizados por Peyron et al. y Thannikal et al. han apoyado fuertemente esta deficiencia de transmisión de neuro hipocretina en la narcolepsia con cataplejía 2,3
  4. Otro estudio realizado por Thannikal et al. mostró que la pérdida de neuronas de hipocretina es altamente selectiva como las neuronas que producen la hormona concentradora de melanina (MCH) que se entremezclan con las neuronas de orexina y que no parecían ser afectados en absoluto. Además, la reducción en el número de neuronas de hipocretina es de alrededor de 85 % a 95 % con evidencia de gliosis lo que sugiere una naturaleza inflamatoria de la enfermedad [19].

Aproximadamente el 90 % de los pacientes que presentan narcolepsia con cataplejía tienen bajos los niveles de hipocretina en el LCR (líquido cefalorraquídeo) mientras que sólo el 10 % y el 20 % de los pacientes clasificados con narcolepsia sin cataplejía muestran bajos niveles hipocretina. Se cree que simplemente se produce una lesión menos severa de las neuronas de orexina que resulta en una pequeña reducción en los niveles de hipocretina en pacientes con narcolepsia sin cataplejía [2].

La importancia clínica de la medición de los niveles de hipocretina en el LCR en estas dos categorías de pacientes narcolépticos se ve limitada por la falta de asociación entre los bajos niveles de hipocretina y la narcolepsia sin cataplejía y también por el hecho de que la narcolepsia con cataplejía es un grupo en el que un diagnóstico adicional rara vez resulta necesario. Sin embargo, la principal utilidad de la medición de los niveles de hipocretina en el LCR se sostiene en la evaluación de pacientes con cataplejía y una prueba neurofisiológica equívoca [22].

Hipótesis autoinmune

La combinación de los antígenos HLA, la pérdida de neuronas de hipocretina, la consiguiente deficiencia de hipocretina y el inicio en la segunda década de la vida apuntan fuertemente hacia una etiología autoinmune. 

Dado que la susceptibilidad genética a la narcolepsia está vinculada a un tipo de HLA específico; muchos investigadores han sospechado una base inmunológica de la enfermedad, ya sea por un mecanismo autoinmune o en respuesta a antígenos externos [23].

Varias observaciones dan un fuerte apoyo a la hipótesis autoinmune [24-31]. Algunas de ellas se describen a continuación.

  1. En un estudio realizado por Cvetkovic Lopes, fue utilizado et al. Se empleó el métido inmunoenzimático (ELISA) para mostrar que los sueros de pacientes con narcolepsia con cataplejía tenían mayores títulos de anticuerpos Tribbles homólogo 2 de transcripción (Trib2) en comparación con los de los controles normales [24]. Este hallazgo se repitió en otro estudio realizado por Kawashima et al. lo que plantea la posibilidad de que algunos pacientes de narcolepsia podrían estar sufriendo un trastorno autoinmune anti- Trib2 [27]
  2. Un estudio realizado por Hallmayer et al. ha encontrado una asociación entre la narcolepsia - cataplejía y el polimorfismo en el receptor de células T alfa locus genético que puede alterar la respuesta inmune ante algunos antígenos [25].
  3. Otros estudios han demostrado asociaciones entre los niveles de interleucina 6, factor de necrosis tumoral , receptor alfa del factor de necrosis tumoral y la narcolepsia [25,26]. Sin embargo, Fontana y col. han sugerido que la destrucción de las neuronas de hipocretina inmuno mediada podría ocurrir de manera independiente de las células T [32].
  4. Un estudio de casos y controles realoizado por Smith AJ et al. identificó auto anticuerpos funcionales en la fracción de la inmunoglobulina G de los pacientes con narcolepsia, pero no en los controles [28]. Llegaron a la conclusión de que los pacientes con narcolepsia - cataplejía tienen autoanticuerpos IgG funcionales que mejora la neurotransmisión colinérgica postganglionar.
  5. Un estudio reciente de Kornum et al. identificó la posible función de un gen del receptor purinérgico: P2Y11 como un importante regulador de la supervivencia de las células inmunes con implicación en la narcolepsia [29].
  6. Watson et al han encontrado que el orden de nacimiento más elevado se asocia con un mayor riesgo de desarrollo de la narcolepsia en las personas positivas para HLA - DQB1 * 0602 [30]. Este estudio sugiere que la respuesta inmune a las infecciones de la primera infancia puede predisponer al desarrollo de la enfermedad y es compatible con una etiología auto-inmunitaria para la narcolepsia.
  7. El aumento observado en la incidencia de la narcolepsia después de la vacuna de la gripe H1N1 en varios estudios y países también evidencia la posibilidad de una base autoinmune de la enfermedad [31].

A pesar de que el cuerpo de pruebas que implican claramente al sistema inmune se requerirán estudios futuros para confirmar la base autoinmune de la narcolepsia ya que no se ha identificado a ningún antígeno diana clave o mecanismo celular / humoral de la inmunidad que podrían atacar a las neuronas de hipocretina. [33].

Causas ambientales

La naturaleza de los posibles desencadenantes ambientales en la narcolepsia es en gran parte desconocida. Sin embargo los estudios han mostrado una asociación con la infección por estreptococos, con la gripe estacional y más recientemente con la vacunación pandémica A/H1N1 de 2009 [22,34-3]. 

También se ha descrito recientemente una asociación entre insecticidas, herbicidas y la exposición a metales pesados con la narcolepsia. [39].

El reciente estudio de Aran et al. se refirió al papel de las infecciones estreptocócicas en la etiología de la narcolepsia. Se encontraron niveles elevados de anticuerpos anti- estreptocócicos en pacientes con inicio reciente narcolepsia [34].

La enfermedad estreptocócica ha sido asociada con la disfunción cerebral sobre la base de una respuesta inmunológica, tal como en la Corea de Sydenham y, más recientemente, los trastornos neuropsiquiátricos autoinmunes pediátricos asociados con infecciones de estreptococos (PANDAS) [35].

Un estudio realizado por Han et al. describe una fuerte correlación entre la aparición de la narcolepsia en niños y los patrones estacionales de las infecciones de las vías respiratorias altas, sobre todo a raíz de la pandemia de influenza HINI de 2009 [36].

A raíz de los informes de casos en Finlandia y Suecia en los niños y adolescentes que desarrollaron narcolepsia luego de la vacunación contra la gripe HINI durante la pandemia, los investigadores empezaron a investigar un posible papel de la vacuna como un disparador para la narcolepsia en otras poblaciones étnicas. 

Un estudio realizado por Miller et al. en Inglaterra encontró que el aumento del riesgo de aparición de la narcolepsia en niños y jóvenes después de la vacuna contra la pandemia AS03 (PandemrixR) no se limitaba a las poblaciones escandinavas y la magnitud del riesgo fue similar [37]. 

Los resultados de otros estudios en otros países europeos se presentaron en el informe VAESCO del Centro Europeo para la prevención y control de enfermedades que confirma una fuerte asociación entre la vacuna pandemicAH1N1 y la narcolepsia [38]. 

Sin embargo, el CDC revisó los datos de su Sistema de Información de Efectos Adversos de las Vacunas y no encontró ninguna indicación de cualquier forma de asociación entre el virus H1N1 con licencia en Estados Unidos o la vacuna de la gripe estacional y la narcolepsia. Se necesitan más estudios para analizar la asociación entre vacuna monovalente adyuvante H1N1 y la narcolepsia.

Otros daños neurológicos que se han ligado a la narcolepsia incluyen, pero no se limitan a: traumatismo craneal, accidente cerebrovascular y cambios en el ciclo de sueño-vigilia [39]. Todo esto podría afectar los niveles de hipocretina, ya sea de forma transitoria o permanente [22].

Enfermedades asociadas
Las personas afectadas con narcolepsia representan un segmento vulnerable de la población. Como complicaciones de esta enfermedad se reconocen varias alteraciones del sueño, así como comorbilidades médicas, de las cuales nuestro entendimiento es sólo parcial.

Varios estudios recientes han demostrado la asociación de la narcolepsia con otros trastornos del sueño especialmente síndrome de apnea, trastorno de conducta del sueño REM y el trastorno de movimiento periódico de las extremidades (piernas inquietas)[40-43].

Sin embargo, la asociación con otros trastornos del sueño parece tener sólo un efecto limitado en general a las manifestaciones clínicas de la narcolepsia [40]. También, la fisiopatología de estos trastornos del sueño difiere de la narcolepsia en que principalmente interrumpen el sueño nocturno para provocar manifestaciones clínicas.

Nevsimalova et al mostraron que el síndrome de la apnea del sueño se asocia con frecuencia con la narcolepsia. En este estudio, también se observó que las comorbilidades del sueño, incluyendo a la apnea del sueño son más frecuentes en los pacientes narcolepsia con cataplejía que en la narcolepsia sin cataplejía. 
Nightingale et al. y Wierzbicka et al. han reportado una alta incidencia de trastorno de la conducta del sueño REM en pacientes de narcolepsia [41,42]. Un número significativo de pacientes con ataques de cataplejía en estos estudios también tenía trastorno del comportamiento REM sugiriendo la tesis de un fondo fisiopatológico común para los dos síntomas [42]. 

Dauvilliers et al. demostraron una alta frecuencia de movimientos periódicos de las extremidades durante el sueño así como la vigilia en pacientes con narcolepsia [43].

La asociación entre la narcolepsia y la obesidad ha sido descrita desde la década de 1970 cuando los estudios de casos y controles mostraron que los pacientes narcolépticos comen más bocadillos que los controles, y documentaron un aumento en la ingesta de calorías. Varios estudios anteriores también concluyeron que los pacientes con narcolepsia tienen un mayor índice de masa corporal (IMC) [44,45]. 

Okun ML et al. demostraron en los pacientes narcolépticos un ligero, pero significativamente elevado, índice de masa corporal en relación con los controles pareados [46]. Todos estos estudios habían evaluado a pacientes narcolépticos con cataplejía.

Sonka et al. han demostrado que a diferencia de narcolepsia con cataplejía, los pacientes que tienen narcolepsia sin cataplejía no tienen un mayor índice de masa corporal ni tienen una mayor incidencia de la obesidad que la población en general [47]. 

Teniendo en cuenta las consideraciones acerca de la obesidad, los pacientes con narcolepsia con cataplejía pueden estar en mayor riesgo que la población general de aquellas condiciones que pueden complicar la obesidad abdominal, incluyendo diabetes mellitus tipo 2 y la enfermedad cardiovascular.

Aspectos neurobiológicos de la narcolepsia

Modelos Animales

La identificación de la narcolepsia en los animales se remonta a la década de 1970, cuando se registró por primera vez en un perro la herencia recesiva autosómica Posteriormente fue descubierto el gen de la narcolepsia canina identificado como receptor hipocretina 2 gen (HCRTR2) [20,21].

También es interesante observar que a diferencia de los seres humanos, la narcolepsia canina no está vinculada al antígeno leucocitario de perro (DLA).

Neurobiología de la somnolencia

"Las neuronas promotoras del despertar no pueden recibir la unidad excitadora adecuada en ausencia de orexinas, dando lugar a una excitación reducida, desinhibición de las vías de promoción de sueño y transiciones inadecuadas para el sueño"

La somnolencia diurna excesiva es una característica definitoria de la narcolepsia que se caracteriza por múltiples intrusiones de movimientos oculares rápidos (REM) del sueño a la vigilia lo que produce un trastorno de toda la arquitectura del sueño. Varias explicaciones posibles se han propuesto para este síntoma debilitante. 

Para entender esto, necesitamos conocer las funciones anatómicas y fisiológicas de las neuronas de hipocretina / orexina (Hcrt / Orx).

Los neuropéptidos Hcrt / Orx han sido implicados en el control del ciclo sueño - vigilia y en el control de la generación de sueño REM. La mayoría de las neuronas de hipocretina están presentes en las neuronas que inervan la región posterolateral del hipotálamo.

Estas neuronas excitan a muchos de los sistemas clave de alerta que promueven el despertar, incluyendo las neuronas noradrenérgicas del locus ceruleus, neuronas serotoninérgicas del rafe dorsal, neuronas histaminérgicos del núcleo tuberomamilar y neuronas colinérgicas en el cerebro anterior basal y protuberancia. 

La pérdida de la señalización Hcrt / Orx en la narcolepsia podría deteriorar estas acciones y eliminar las acciones inhibitorias sobre la generación de la fase REM en las zonas pontinas durante el despertar.

Además, las neuronas promotoras del despertar no pueden recibir la unidad excitadora adecuada en ausencia de orexinas, dando lugar a una excitación reducida, desinhibición de las vías de promoción de sueño y transiciones inadecuadas para el sueño [18].

Esta hipótesis podría explicar mejor las transiciones frecuentes entre la vigilia y el sueño, la fragmentación del sueño REM y el sueño excesivo presentes en los pacientes narcolépticos [18].

Otra posible explicación para la somnolencia excesiva es que los pacientes con narcolepsia pueden tener una fase de sueño más alta que lo normal [33].

Los estudios de investigación han demostrado que las neuronas hipocretina / orexina en ratas y humanos, están inervadas directamente por las neuronas del núcleo supraquiasmático, una estructura que es responsable de la regulación de los procesos circadianos.

Por lo tanto, una pérdida de neuronas de hipocretina podría llevar a una alteración del control de circadiano del ciclo sueño/vigilia. Sin embargo, esta explicación no es convincente ya que otros estudios han demostrado que la cantidad total de sueño en ratones y seres humanos con narcolepsia se mantiene igual y que son sus respuestas a privación del sueño. Un estudio realizado por Mochizuki et al. también ha demostrado que los ritmos circadianos fundamentales de ratones y seres humanos con narcolepsia son cercanos a lo normal [49].

Neurobiología de la cataplejía

La cataplejía consiste en breves episodios de debilidad muscular a menudo provocados por emociones fuertes. La pérdida del tono muscular podría ser parcial y afectar sólo la cara y el cuello o completa con el resultante colapso postural. Sin embargo la conciencia está completamente preservada durante la cataplejía. Los episodios de cataplejía genuinos son provocados por emociones muy específicas, como las bromas, la risa y la ira.

Cuando una persona está en el sueño REM, hay pérdida del tono en los músculos posturales del cuerpo. Esto se denomina atonía del sueño REM. Las neuronas motoras son inhibidas por vías de la médula espinal GABAérgicas y glicinérgicas y por la médula medial [50]. Durante la vigilia estas neuronas se mantienen bajo control. En la cataplejía, las neuronas se inhiben, desinhibición que resulta en la pérdida del tono postural (atonía) [52]. 

Las neuronas de hipocretina / orexina pueden también participar en el desencadenamiento de la cataplejía. Un estudio realizado por Yamuy J et al. han demostrado que las neuronas de hipocretina también se proyectan a las neuronas motoras y tienen un efecto excitatorio sobre ellas [53]. Es posible que la pérdida de neuronas de hipocretina podría conducir a la atonía. Sin embargo, los detalles más finos de las vías neurales que regulan la somnolencia y la cataplejía aún no se han resuelto completamente.

Conclusiones y direcciones futuras

A medida que nuestra comprensión de la patogénesis de la narcolepsia sigue avanzando, cada vez es más evidente para nosotros que la pérdida de neuronas de hipocretina autoinmune es la causa principal de la narcolepsia con cataplejía. Sin embargo, se necesitaría más información para entender completamente el proceso autoinmune y también en cuanto a cómo este proceso puede ser alterado por los beneficios terapéuticos. También se necesita más investigación para aclarar la amplia gama de factores genéticos que pueden causar la narcolepsia y acerca de otros neuropéptidos que pueden estar involucrados en la patogénesis de la narcolepsia.

El descubrimiento del sistema hipocretina / orexina había provocado un enorme aumento en la investigación sobre la narcolepsia que mejoró significativamente nuestra comprensión de este trastorno debilitante. Sin embargo, las cuestiones más importantes y básicas siguen sin respuesta.

¿Qué proyeccionesde  hipocretina son esenciales para el control del sueño? ¿Cómo se regula el sistema hipocretina y cómo la cataplejía está vinculada con la pérdida de hipocretina? Éstas son algunas de las cuestiones que deben abordarse. También sería necesario el desarrollo de un modelo de trabajo para explicar las conexiones neuronales implicadas en la regulación de la somnolencia y la cataplejía para la comprensión profunda de la narcolepsia.

Pocos estudios de imagen han investigado el papel de las vías límbicas en la regulación de la cataplejía. Además, los mecanismos neuronales detrás otros síntomas de la narcolepsia, como las alucinaciones hipnagógicas y los ataques de sueño aún no se han estudiado, los estudios de neuroimágenes recientes se han dedicado a evaluar el cerebro dormido en narcolepsia.

La relación entre la regulación de alimentación, el metabolismo de la energía, la afectación emocional y la narcolepsia debe ser explorada. La asociación entre los trastornos alimentarios y la narcolepsia también se ha descrito recientemente. Los hallazgos representan un cambio en la conducta alimentaria que resulta en un aumento del IMC en los pacientes narcolépticos y no sólo un aumento de la ingesta de calorías.

Por último, la fisiopatología de la narcolepsia sin cataplejía sigue siendo un campo muy sin estudiar. Una comprensión detallada de las vías neurales que intervienen en el mantenimiento del ciclo sueño-vigilia sería quizá arrojar luz sobre este trastorno.

Se han dado muchos pasos hacia la comprensión de este trastorno. Esto a la larga conducirá a la formulación de nuevas terapias y puede incluso conducir a una cura para la narcolepsia.

Información complementaria: "Conversaciones con la “Bella durmiente”, historia de vida de una paciente con narcolepsia.




Picture of System Administrator

Navia, el primer carro autónomo del mercado

by System Administrator - Saturday, 11 October 2014, 2:20 PM

Navia, el primer carro autónomo del mercado

por Camila Alicia Ortega Hermida

La compañía francesa Induct presentó en el CES en Las Vegas el Navia, un carro que puede desplazarse sin la necesidad de un conductor.
La empresa, especializada en desarrollar tecnologías inteligentes para el futuro de la industria automotriz y en proponer soluciones de movilidad innovadoras, dio a conocer el Navia, un carro 100% eléctrico que puede transportar ocho pasajeros, alcanzar una velocidad de 20 kilómetros por hora y que tiene la capacidad de conducirse a sí mismo.

Lea también: Ford presenta prototipo de vehículo que funciona con energía solar

El Navia no requiere de una infraestructura especializada, es decir, no necesita de un carril exclusivo o rieles para funcionar. El vehículo está diseñado espacios amplios como grandes centros urbanos peatonales, aeropuertos, parques temáticos, campus universitarios o complejos hospitalarios, entre otros, que necesitan una solución segura y amigable para transportar a las personas.


Demostración del Navia en el CES 2014 en Las Vegas. Imagen: 

El innovador vehículo cuenta con sensores y tecnología láser que permiten realizar un mapeo de la zona para evitar cualquier tipo de obstáculo que se interponga en el camino, como peatones, andenes o bicicletas. 

El Navia funciona como un ascensor: una vez la persona se encuentra dentro de él, debe elegir la parada a la que desee dirigirse en la pantalla táctil que se encuentra dentro del vehículo. 

El carro futurista ya está siendo probado en varios campos universitarios de países como Suiza, Inglaterra y Singapur. 

«El transporte público no es suficiente por sí solo. Tenemos que pensar en formas de movilizarnos que sean accesibles y que tengamos al alcance de la mano. La meta es mejorar la movilidad pensando más allá de los diseños convencionales y del vehículo privado» afirma Pierre Lefèvre, director ejecutivo de Induct y diseñador del Navia, en el sitio web de la compañía.

El Navia de Induct brinda la oportunidad de mejorar la dinámica de la ciudad y la calidad de vida de las personas y reducir el smog y la contaminación generada por los vehículos de combustible.

Aunque el Navia promete convertirse en una tendencia dentro de campus universitarios y aeropuertos, es también un anticipo de lo que viene para los sistemas de movilidad y tranporte en la ciudad del futuro: vehículos driverless que nos ayudarán a reducir accidentes causados por error humano, liberarnos del estrés que a veces causa estar atascado en el tráfico, trabajar mientras nos desplazamos de un lugar a otro o incluso despreocuparnos de la necesidad de un conductor elegido cuando decide tomar una copa de vino. Después de todo, Isaac Asimov no estaba demente cuando escribió su obra ‘Yo, Robot’ (3D).

Otros carros autónomos

Aunque el modelo Navia es el primer vehículo de su tipo en salir al mercado, no es la única propuesta existente, pues diferentes compañías ya están trabajando en sus propios modelos autónomos. Por su parte, en el CES del 2013, Audi mostró su modelo Audi A7, que está equipado con sensores que le permiten conducirse y parquearse por sí solo. Además, anunció ser la primera compañía en obtener una licencia para probar sus vehículos driverless en avenidas públicas de Nevada, Estados Unidos, y promete desarrollar un completo sistema de piloto automático antes del 2020.

Para ese mismo año, Nissan asegura que incluirá en su portafolio una gran variedad de carros completamente autónomos para introducir en el mercado. Sin embargo, ha hecho demostraciones de su modelo Nissan Leaf, capaz de conducirse solo y con sistema de parqueo autónomo.

La marca Mercedes-Benz reveló que su modelo inteligente, S 500, realizó un trayecto de 97 kilómetros manejandose solo desde Mannheim hasta Pforzheim en Alemania.

Por otra parte, se pronostica que en el 2015 algunas ciudades de Inglaterra contarán con carros driverless que transporten a las personas dentro de centros comerciales, parques, entre otros.


Google y Audi unen fuerzas para crear carro inteligente Android

 Google y Audi están trabajando de forma conjunta para desarrollar un vehículo que cuente con un sistema de información y entretenimiento basado en software Android.

La compañía automotriz alemana y Google darán a conocer sus planes dentro del marco del Consumer Electronics Show (CES), que se realizará en La Vegas entre el 7 y el 10 de enero de 2014. 

Google, que también ha anunciado alianzas similares con diferentes fabricantes de vehículos como Toyota y de tecnología, como la empresa productora de chips Nvidia, trabaja actualmente en un sistema Android que pueda integrarse con los vehículos para permitirle a conductores y pasajeros acceder a música y aplicaciones, navegar por internet, utilizar Google Maps, realizar video llamadas y utilizar otras funciones de la plataforma Android sin la necesidad de usar un smartphone, solamente el automóvil.

Lea también: La carrera de los carros eléctricos: los 14 modelos más veloces 

Sin embargo, el camino para alcanzar este objetivo no es fácil y más vale moverse y mostrar resultados rápidamente, pues no se trata de la única compañía que esté trabajando en un sistema operativo que integre el software de los smartphones con el de los carros: Intel ha estado trabajando en el desarrollo de vehículos conectados, en alianza con compañías como Nissan y Hyundai; y Apple, según informa The Wall Street Journal, anunció recientemente que ha estado trabajando en llevar el sistema iOS a los vehículos de sus aliados BMW y Honda.

Sin duda, uno de los «dispositivos conectados» que mayor crecimiento tendrá en el 2014 será el automóvil. La propuesta de Audi y Google busca eliminar la necesidad de utilizar smartphones o tablets mientras las personas conducen, una apuesta que no solo facilitará acceder a reportes de tráfico, rutas de GPS, búsquedas, llamadas, mensajes de texto por comandos de voz, selección de música, entre otros, sino que también ayudará a reducir cientos de miles de accidentes de tránsito que se producen a diario en todo el mundo a causa de personas que conducen y utilizan dispositivos móviles simultáneamente.

Read more:

Picture of System Administrator

Navigating DevOps

by System Administrator - Thursday, 7 May 2015, 4:40 PM

Navigating DevOps: Learn What It Is and Why It Matters To Your Business


In these eBooks you'll learn; what DevOps is, where it came from, why it was created and who's adopting a whole lot more.

Please read the attached eBooks.

Picture of System Administrator

NCBI: The National Center for Biotechnology Information advances science and health by providing access to biomedical and genomic information

by System Administrator - Thursday, 26 December 2013, 9:04 PM

The National Center for Biotechnology Information advances science and health by providing access to biomedical and genomic information. Link:

Picture of System Administrator

Network Flow and Application Performance

by System Administrator - Wednesday, 14 January 2015, 7:55 PM

Network Flow and Application Performance: How should network flow inform VM placement?

Network-heavy, scale-out workloads place considerable stress on today's rapidly growing virtualized and cloud datacenters. Non-delimiting network components, as well as emerging software-defined networking (SDN) technologies aim to mitigate the potential bottlenecks that can precipitate at the network layer in such environments, as well as simplify network design. However, there remain significant challenges, as well as optimization opportunities, at the network layer.

This whitepaper examines the latency-inducing pitfalls of common VM placement tactics, as well as a network flow approach that minimizes network, compute, and storage latency all at once.

Please read the attached whitepaper.

Page: (Previous)   1  ...  9  10  11  12  13  14  15  16  17  18  ...  23  (Next)