El efecto red

23 marzo, 2009

manyapples

Bien, puesto que los dos principales operadores móviles competidores en el marco europeo se ponen de acuerdo en compartir sus redes, ¿dónde deja esto a la infraestructura como elemento de diferenciación de oferta? Es cierto que sólo es el extremo de la red lo que parece estar incluido en el acuerdo pero, ¿no es razonable observar una tendencia? Y más aún, ¿qué han de extraer de esto los fabricantes de infraestructura de red con posicionamiento premium, como Ericsson? Si la red no ha de distinguir a la oferta, ¿tendrá sentido a medio plazo para los operadores invertir en equipamiento diferencial? También como el signo de una tendencia es posible interpretar los resultados de Huawei en 2008. Si los fabricantes de equipamiento no quieren ser comoditizados quizás sea el momento de comercializar la infraestructura como un servicio (network as a service, NaaS, por reutilizar un concepto ya familiar). En mercados maduros, con penetración cercana o superior al 100%, donde el despliegue debe responder a criterios de eficiencia, no estratégicos, y la operación y mantenimiento de la red es un coste que se observa bajo la óptica de la reducción y la externalización ¿por qué conservar la inversión, un coste fijo que compromete el umbral de la rentabilidad y obliga a gestionar la capacidad y no la demanda?

Y otra idea: ¿cómo se conciliará esta estrategia de los operadores con la resistencia a la separación de actividades que promueven algunos de los reguladores? Quizás estamos iniciando un viaje del que quizás no sabemos cómo concluirá. ¿O ?


Competencia entre cadenas de valor

3 diciembre, 2008

La reciente decisión de Nokia de abandonar el mercado japonés pone de manifcolliding1iesto una importante característica de los mercados de telecomunicaciones frente a los convergentes ‘primos’ de internet: La prominencia de los modelos de integración vertical del negocio. Aparentemente, la decisión de Nokia, el gigante mundial de los móviles (39% de cuota mundial), responde a la incapacidad de generar un(os) producto(s) que compitiese(n) con los muy personalizados a las necesidades de los operadores locales producidos por Sharp, Panasonic, otros. Fabricantes a distancia sideral de las economías de escala del mamut finlandés pero con una integración en la oferta del operador que contrarrestaba este problema. Incluso, también en estos días se había hablado de que la propia Nokia estaba considerando lanzar un operador virtual en Japón, no se sabe bien si como estrategia de salvamento de sus operaciones en este país o como solución particular para su marca Vertu, que sí pretende conservar en el archipiélago (si no podemos vender a los clientes, siempre podemos fundar un cliente a quien vender, parece ser la lógica empresarial detrás de este movimiento).

La circunstancia no es peculiar. Qualcomm, fabricante de chips y tecnologías de transmisión, adquiere frecuencias en UK para transmitir televisión sobre su tecnología MediaFlo. En Korea, LG tiene su operador móvil. Telefónica, tras un largo viaje por el mar de los contenidos (viaje que podría decirse concluído en naufragio), considera adquirir ahora Digital+. Orange gestiona en España toda una red de propiedades web bajo su unidad residencial. La aparente conclusión es que se impone una concepción: para hacer negocios en el mercado de las telecomunicaciones es adecuado integrar y apropiarse de la cadena de valor al completo (o casi). Es como si, con una suerte de proteccionismo y control del ecosistema englobado bajo el servicio que adquiere el cliente, se protegiese a la compañía frente a posibles competidores. 

Este planteamiento se contradice, sin embargo, con el existente en el mundo de la informática/internet, en donde la fragmentación y la apertura son los vectores dominantes: las licencias públicas de uso, los protocolos de internet permiten la separación de proveedores de red, hardware, software, y dentro de éste los que gestionan la información, la capacidad de procesamiento, la lógica y la presentación, cada vez más degradados y confundidos en una nube que contiene a toda la amalgama de proveedores alineados entre el teclado y la red. En el fondo el debate sobre la neutralidad de red no es sino la aceptación, por parte de los actores, de que la convivencia de propuestas de valor servidas al cliente es inevitable (aunque las reglas de convivencia no sean pacíficas).

Estos dos universos convergen, no obstante, a gran velocidad hacia un sólo ecosistema. Cabe preguntarse qué filosofía se acabará imponiendo. Si el resultado es competitivo, ¿acaso no estarán más preparados los que habitan en la competencia?


La ventaja competitiva sostenible de la tecnología

19 noviembre, 2008

No por familiar y repetido, resulta menos complicado establecer que el uso de la tecnología en la empresa es fuente de una ventaja competitiva. Se oponen a la declaración el hecho de que la tecnología es fácil de acceder por cualquier empresa (lo que se contradice la idea de mejorar a la competencia), y aún la borrosa causalidad entre la inversión y los resultados.

Algunas de las noticias o reflexiones que he recibido últimamente me hacen pensar que la raíz de la competitividad para la empresa tecnológica pueda estar no tanto en extraer más, sino en restar menos. Con contadísimas excepciones, las máquinas informáticas son las más infrautilizadas en la cadena productiva. Cualquier horno, cadena de montaje, curtidora, fresadora… funciona con turnos o con un aprovechamiento que ha sido pacientemente revisado hasta aproximarse al óptimo. Si observamos un PC, el panorama es el inverso. De acuerdo a ciertas informaciones, un PC emplea en el mejor de los casos un 15% de su potencia de forma productiva. La mayor parte del tiempo está esperando que oprimamos la siguiente tecla, que volvamos del café, que completemos la llamada… sin detener su gasto, en electricidad, en recursos, …Para algunas empresas los costes de electricidad representan un 40% de sus gastos totales, para muchas (el entorno actual engrosa el número) significan la diferencia entre la rentabilidad y la pérdida. No sólo es la escasa optimización de la máquina: mantener en estado de funcionamiento a los servidores requiere otras infraestructuras anexas (típicamente equipos de refrigeración) que llevan en muchos casos prácticamente el mismo consumo energético que las computadoras a las que sirven.

Es posible que la ventaja competitiva existente detrás del empleo de la tecnología se encuentre en el uso moderado de la misma. En evitar las implantaciones fallidas. En emplear sólo la inversión suficiente para automatizar los procesos, sin acceder a la última tecnología sin probar. En compartir los recursos (que un mismo PC dé servicio a varias personas, multiplicando los periféricos), en utilizar máquinas ligeras que optimicen el uso de recursos. Quizás la tecnología deba ser contemplada bajo la óptica de la eficiencia, una eficiencia mecánica, no intelectual, aspecto sobre el que ya se ha analizado en gran cantidad. Quizás la ventaja competitiva en el uso de la tecnología se encuentra en realidad en el uso eficiente de la tecnología.

Y dentro de este uso eficiente cada vez más se encuentra la eficiencia energética. Ahora, mientras los fabricantes de teléfonos móviles dirigen sus miradas a los cargadores, compañías como Google e Intel lanzan sus propias iniciativas de ahorro. Según algunos estudios, un 45% de la energía consumida se desperdicia, y hasta un 30% del coste de un departamento de sistemas es gasto energético. Cuando el gasto en sistemas se mueve entre el 3% y el 10% de la facturación para las grandes empresas como apuntaban algunas empresas (Gartner/AMR), uno empieza a vislumbrar dónde puede estar el verdadero impacto de la tecnología en el negocio.


¿Es Google el nuevo Microsoft?

2 noviembre, 2008

Google acaba de anunciar un acuerdo para indemnizar a los editores y libreros por el uso de propiedad intelectual de éstos en su proyecto de digitalización de bibliotecas. Con esta operación, y haciendo uso de la formidable caja con la que cuenta la compañia, Google remueve un problema que enturbiaba con incertidumbre el horizonte del negocio. Google dista mucho no obstante, de haber despejado definitivamente su camino. Su propiedad Youtube tiene numerosas demandas de la industria audiovisual, algunas de las cuales potencialmente transcendentales para sus operaciones.

La secuencia de acontecimientos con todo recuerda de alguna manera a la historia de Microsoft. En el crecimiento de Microsoft mientras se posicionaba en la forma de acceder y procesar la información de las personas, también aparecieron diversos casos de empresas que se consideraron lesionadas y demandaron al gigante (Netscape). A estas demandas siguieron las de los estados americanos y otras administraciones, y las de otras compañías tecnológicas. Hubo un momento en que Microsoft decidió disolver el frente juidicial llegando a acuerdos con los demandantes. AOL, los estados, Novell … consintieron fines pragmáticos a las disputas. Parte del daño estaba ya hecho: Microsoft se impregnó de una imagen dominador que empleaba dinero -obtenido monopolísticamente- para prolongas las situaciones competitivas sospechosamente labradas. Aún más: probablemente en la propia cultura de Microsoft empezó a solidificarse el comportamiento de que la competencia no se ceñía a las ideas y la ejecución, sino que quedaba ampliada al escenario judicial, con un daño incalculable en la cultura innovadora de la compañía (la caja de la compañía prestaba la ilusión de que era posible permitirse una segunda oportunidad ante compañías competidoras en el campo judicial). Quién sabe en qué medida el crónico retardo de la compañía en mercados como el de la publicidad online o la computación y aplicaciones en red pueda estar infiltrado de una cultura empresarial complaciente.

¿Puede Google resultar el próximo Microsoft? Más allá de las historias paralelas (Google está cerca de convertirse en la propietaria del nuevo sistema operativo dominante -el apoyado en la red-, como lo es Microsoft en el espacio actual), los datos apuntan a situaciones similares (el poder monopolístico, o su proximidad) y el recurso a respuestas similares por parte de la compañía. Lo siguiente puede ser olvidarse de dónde se encuentra la raíz del éxito empresarial


La elección de mercados de telecomunicaciones

26 septiembre, 2008

 

¿Por qué, tras tantos años de competencia, Telefónica tiene todavía el 60% del mercado de la banda ancha? Hace no tantos años la banda ancha era un producto prácticamente inexistente, de modo que el mercado ha tenido que capturarse en su totalidad; no se ha heredado como ocurre con las líneas de voz fijas (aunque sin duda existe un efecto arrastre). Imagino que esta pregunta se la hacen recurrentemente los competidores del mercado de banda ancha, quienes a menudo aparecen públicamente justificando -más o menos explícitamente- que con los precios mayoristas actuales no es posible introducir más competencia (y por tanto un reparto de cuotas más equitativo).

En mi opinión, la razón es que se ha escogido para competir el mercado más rojo posible, el más atestado de sangrienta competición, como dirían Kim y Mauborgne: el mercado de quienes quieren un acceso de banda ancha lo más barato posible. Este mercado viene a coincidir -en buena parte- con usuarios jóvenes (=menores ingresos, mayor disposición a sacrificar conveniencia por ahorros) y sin embargo con experiencia y usos intensivos (=mayor consumo, especialmente de servicios P2P y vídeos, los que más ancho de banda se llevan). Se trata del grupo quizás bien representado entre los early adopters y acaso la early majority, pero no cuando se alcanza el punto de inflexión en el mercado en el que el producto puede entenderse como consolidado. Accediendo a dicho mercado, la competencia se ha establecido básicamente sobre el precio (y por tanto en costes, lo que incluye el de captación): los clientes entran y salen, movidos por las ofertas de captación, comprimiendo el plazo de rentabilización de la inversión, y en dicho margen las compañías tienen la difícil tarea de resolver la ecuación de amortizar costes de captación y comunicación con unos márgenes erosionados desde arriba (guerras de precios) y desde abajo (costes crecientes de derivados del incentivo de las tarifas planas a consumir). En este escenario no es difícil explicarse los pobres resultados de las compañías, los retrasos en la entrada en rentabilidad de las unidades, y la angustia exhibida por la evolución de los precios mayoristas.

Pero además, el mercado se aleja de ellos. A medida que el público que se incorpora al mundo de la banda ancha responde a otros perfiles (familias, mayores, baby boomers sin inclinación tecnológica), la propuesta de valor deja de ser atractiva: se reclama fiabilidad, sencillez, calidad de servicio, variables directamente incompatibles con un producto adelgazado de todo lo que no sea conectividad. El resultado, la cuota de mercado de los entrantes ha retrocedido en el último año. Los competidores han agotado el mercado al que se dedicaron, y ahora se roban clientes unos a otros en una dinámica destructiva mientras el incumbente recoge a las nuevas incorporaciones con mínimo desgaste.

Es el momento de que los operadores alternativos revisen sus modelos. No es casualidad que las mejores cuotas -relativas a sus mercados- de los competidores vengan de las empresas de cable regionales, las menos inclinadas a plantear una competencia sobre precio (acaso su situación de partida, con un mercado reducido, les obligó a pensar desde un principio en la totalidad del mercado y no en el segmento más visible y sangriento). Replantearse la calidad de servicio y de atención como variable de competencia. Replantearse un producto pensado para consumos esporádicos y de baja intensidad y comercializado en esquemas totalmente simplificados que el P2P y el video IP convierten en intenso y constante, y descorrelacionado en márgenes. Tampoco es una coincidencia que los ISPs con red propia, como las empresas de cable o COLT, sean los más rentables (en esto la historia de los operadores móviles también apunta en el mismo sentido). La fortaleza del incumbente, su atractivo al mercado masivo, le dificulta a su vez plantear esquemas personalizados sin castigar la transparencia de su mensaje. La introducción de las  redes de nueva generación es quizás una oportunidad de revisar el modelo, aunque sea en aquellas zonas donde la rentabilidad resulte más accesible. Pero las declaraciones que se escuchan no apuntan en este sentido. Al menos, tendremos un adsl barato durante algún tiempo más.


El buzón de voz, una equivocada vaca lechera

10 julio, 2008

El buzón de voz como servicio en su concepto es razonable: permitir acceder selectivamente a las llamadas perdidas. No obstante, en su definición actual es muy deficiente, y los comentarios vertidos alrededor de un reciente post de Dans recogen elocuentemente la contestación y desagrado del público con el servicio. Como ocurre a menudo con la creación de oferta en telecomunicaciones, el servicio se diseñó por ingenieros a partir de una tecnología disponible (en el sentido de materializable), sin consideraciones de usabilidad y sin reajuste conforme al comportamiento del usuario cuando éste se conoce. El buzón de voz, que se concibió en un inicio como un servicio de pago -se pagaba una tarifa por acceder a sus contenidos- y de uso minoritario, pasó posteriormente a ser gratuito, volviéndose mayoritario en su uso (en lo que tuvo mucho que ver la decisión de las operadoras de entregarlo preactivado a los nuevos suscriptores de líneas). Asociado al tráfico de voz, que representa el 85% de los ingresos para del negocio, el buzón de voz ha aportado unos jugosos ingresos a las operadoras, a través del cobro de la interconexión a las operadoras de los llamantes infructuosos y del tráfico incrementado gracias a los mensajes recogidos.

 ¿Cómo se ha de tratar un servicio que aporta dinero en un campo -la voz- de la que se piensa que no da más de sí? Como a una vaca lechera, en vocabulario BCG. La teoría nos llevaría pues a dejar de invertir en el producto y maximizar el ingreso mientras se pueda. Y bien puede decirse que eso es lo que han hecho las operadoras: con la excepción de retoques alrededor de incrementar el ingreso capturable (como incluir publicidad en los SMS que avisan de la llamada en el buzón o hacer llamadas desde el buzón al usuario para tratar de elevar la tasa de respuestas), el buzón de voz se ha mantenido en su funcionamiento prácticamente como el primer día (podría hacerse la excepción del uso de spinvox por Vodafone para convertir a texto los mensajes, aunque resulta subsidiario al buzón y no se ha promovido a escala masiva, diría yo), recogiendo ingresos de forma incesante (y decreciente) alrededor de las llamadas, y dejando un regero de irritación en los usuarios por el camino.  

¿Es el buzón de voz (y la voz, en sí misma) un producto a ordeñar? Cuando el producto representa una parte tan significativa de los ingresos del negocio, desarrollar una estrategia defensiva resulta muy cuestionable. Elevar, o retener la caída de los ingresos, un 1% en la voz implica tanto como elevar los ingresos del total de los servicios de datos -excluyendo los SMS, acaso también maduros- más de un 15%, y eso considerando el tráfico de datos en su conjunto (contenidos, navegación, tráfico,… que deberían subir todos en dicho porcentaje para resultar comparables). Y aún más: nos estamos centrando en los ingresos, cuando el modelo de negocio para el tráfico de datos resulta mucho más cuestionable en márgenes actuales y previstos que los de la voz, ya que requiere un uso de la capacidad de tráfico tendida muy superior.  Habiendo considerado pues todo el paisaje, ¿conviene seguir aceptando que la voz es un producto agotado? ¿Es aceptable admitir un negocio basado en que minutos después de recibir una llamada que el usuario no ha cogido el operador lance una llamada desde el buzón de voz para vomitar nuevamente el mensaje? ¿Estamos dispuestos a admitir que el operador no cuenta con información respecto de las llamadas recibidas -y contestadas- por el terminal receptor y las realizadas desde el momento de la llamada como para establecer escenarios de comportamiento (el usuario no está atendiendo ni realizando llamadas, no debe molestársele)? ¿Tendría esto valor para el usuario, se transmitiría a su satisfacción global con el servicio? Alrededor de la gestión de la presencia, del comportamiento del usuario, como se encargan de recordarnos los de STL en su impagable blog Telco 2.0 existe todo una panoplia de servicios por recorrer, en los que el papel del buzón de voz puede ser central (modificar de forma directa, acaso con códigos USSD, el mensaje a emitir a los llamantes, distinguir cuando llamas y el usuario no atiende llamadas a cuando llamas y te llamará en unos minutos, distinguir un móvil apagado durante horas y previsiblemente sin un usuario cerca de un móvil que ha sido utilizado hace minutos y se puede intentar en breve). Buena parte de las posibilidades de las nuevas IMS se justifican alrededor de estos valores, pero no es necesario esperar a estas redes de nueva generación para iniciar el camino de satisfacer al usuario con este tipo de funcionalidades.

El buzón de voz, si se ajusta a los casos (ahora no puedo / no acepto llamadas sin identificación / enviame un SMS que estoy reunido), tanto si es guiado de forma activa por el usuario como apoyándose en el comportamiento de éste, resultaría de un gran valor para el usuario. Por lo pronto, tendremos que conformarnos con el avance que es -para los americanos, aún no sé si Movistar lo incorporará como servicio- contar con un buzón visual que permita acceso directo y no secuencial a los contenidos.


El móvil fácil

30 enero, 2008

Ya tenemos en el mercado español un nuevo operador móvil (virtual), SIMYO. Se añade a los ya ‘establecidos’ Yoigo, Pepe Phone, Eroski Móvil, Carrefour Móvil… casi todos con un denominador común: una oferta reducida a un único plan de tarifas, de tarifa única (o casi, algunos operadores, como R en Galicia, han aparecido con una tarifa adaptable al consumo, única en todo caso para el usuario en su tramo de uso).

Por alguna razón, todos los operadores que están saliendo aportan la misma propuesta. Para aquellos a quienes la complejidad y carestía de la oferta dominante les provoca una insatisfacción tal como para abrazar cualquier alternativa sencilla, aquí una planteada en terminos numéricos: 12c, ó 15c, ó 9c, por todas las llamadas/sms/… que se quieran hacer.

La teoría nos recuerda que al lanzar una oferta a un mercado el primer paso es determinar el mercado potencial o segmento objetivo al que nos gustaría servir más directa y rentablemente (al menos en términos relativos). ¿Resulta tan atractivo el segmento de usuarios que valoran precio y simplicidad? Aproximadamente dos de cada tres usuarios desconocen qué precios pagan por sus llamadas, así que a primera vista el precio, para una mayoría de usuarios, no sería tan crítico como factor. ¿Qué motiva pues a los usuarios? De nuevo, cerca de dos de cada tres admiten que cambiarían de operador por obtener un móvil nuevo. ¿Puede aquí un operador entrante lanzar una oferta atractiva? Es complicado, puesto que el coste de los terminales va en relación con los volúmenes negociados y ofrecer lo mismo que los dominantes ya implica un esfuerzo muy superior (que además tendrá que recuperarse con tarifas menos rentables. De ahí que algunos de los nuevos operadores estén planteando las activaciones con los terminales liberados de la competencia).

¿Por qué ofrecer entonces una oferta simplificada y abaratada? ¿Por qué ponerse en situación de tener que recuperar, con menores ingresos, una inversión en la adquisición del cliente mayor? ¿y por qué escoger como terreno de juego un segmento, acaso minoritario de usuarios, donde además se concentra la mayor cantidad de oferta competitiva e igualadora? Hay un aspecto, entre todas las valoraciones, que parece incuestionable. Vender precio es sencillo de comunicar. Cualquier departamento de marketing o de comunicación resuelve con facilidad la necesidad de construcción de la propuesta. Basta ocupar el 70% del espacio del home, del anuncio en el periódico, con un único número, y el usuario abandona el lugar con una comprensión clara de lo que se le ofrece. Si no lo confunde con alguno de los numerosos mensajes de la competencia, claro. Vender conveniencia, fiabilidad, servicio, o incluso producto es más complicado, intangible, y no garantiza ningún éxito. Repasar un mercado para identificar estímulos de comportamiento diferentes al coste que formen segmentos relevantes -los gamers e internet addicts, necesitados de comunidad, los autónomos, reclamando atención comercial personalizada, los trabajadores en la calle, reclamando conveniencia y predictibilidad del gasto- tampoco. Aunque en la visión el éxito nunca está garantizado, sino en la ejecución. Y al menos se comienza en un lugar donde el ruido del mercado es inferior.


Respuestas en busca de preguntas

5 octubre, 2007

El negocio de los buscadores es hoy probablemente el principal mercado de internet. Alrededor de las búsquedas se concentra la mayor parte del negocio publicitario, y el negocio publicitario es hoy el principal sustento de la mayoría de pobladores de internet. El negocio de las búsquedas -aunque fuese descubrierto por otras empresas- encumbró a Google, y tras su estela aparece un interés redivivo sobre la mejor tecnología para ofrecer a los usuarios lo que buscan y necesitan.

El hecho es que el dominio de Google sobre la tecnología de la búsqueda, el secreto de la relevancia de los resultados, parece tan absoluto que en algunos casos uno siente la tentación de dar la guerra por concluída. Google no sólo cuenta con la mejor tecnología, cuenta con la mejor marca, la posición más dominante, y los mayores recursos que destina además en una superior proporción a investigar y desarrollar la mayor potencia y verosimilitud de los resultados. Intentar hacer de Google mejor que Google puede parecerle razonable a algunos, pero suscita escepticismo a priori. ¿Hemos llegado al final de la historia de las búsquedas?

Desde luego, muchos piensan que no, y la propia evolución de internet y de los negocios tecnológicos desaconseja excluir el cambio como variable. La cuestión es adivinar la grieta en la coraza de Google por donde pueda ésta resquebrajarse. O inventarla. La historia de los fracasos empresariales nunca comienza por una crisis prevenida.

Probablemente el origen del cambio consista en desplazar el rectángulo de juego tecnológico, en el que Google se encuentra tan cómodo, a otro más azul y en el que las reglas no las marque un algoritmo. ¿Qué es lo que valora un usuario cuando lanza una búsqueda al ciberespacio? ¿Decenas de miles de resultados? Recuerdo haber leído estudios sobre búsquedas en los que se arrojaba una media de poco más de dos páginas visitadas, es decir, menos de 30 links son consultados en media tras una búsqueda. Si no es cantidad pues, lo que satisface al usuario, se trata sin duda de calidad, pero ¿cómo medirla y aun obtenerla? Cuando uno emite una búsqueda, conoce la respuesta que espera aunque ignore su contenido, y el mayor esfuerzo personal reside en transmitir adecuadamente a la máquina la pregunta que lleva aparejada. Las máquinas que atienden a nuestras preguntas no empatizan, no contextualizan nuestra necesidad, no son capaces de superar la ambigüedad de nuestras expresiones. La mejora de los resultados de las búsquedas que anhelamos acaba pues por exigirnos un trabajo de aproximación: o las personas mejoramos en nuestra interpelación a las máquinas, haciéndonos más precisos y menos ambiguos al consultar, o las máquinas se vuelven más humanas y comprensivas y nos sobreentienden cuando lo necesitamos.

Los nuevos buscadores aparecen entonces por la frontera de la socialización de las máquinas. Mahalo, por ejemplo, comprende el esfuerzo de hacerse preguntas y resolverlas manualmente, para luego alojar dichas respuestas en la máquina. Representa la antítesis de Google. El problema está en el esfuerzo. Mahalo admite que no podrá atender más allá de un 30% de las preguntas (no será capaza de hacerse más de un 30% de las preguntas, en primer lugar), aunque dicho porcentaje puede representar una mayoría de los casos debido a la concentración de las necesidades (unos pocos términos son los más buscados). Mahalo está intentando superar el problema de la limitación incorporando a usuarios a la tarea de clasificar la web. En esta línea, la etiquetación de la web a la que estamos asistiendo desde los sitios web 2.0 puede estar abonando el futuro de los nuevos buscadores. Algunos lo han apuntado ya (el blog Read/Write Web sobre el papel de Del.icio.us y StumbleUpon como generadores de resultados), y los optimistas del poder de los usuarios probablemente celebran la posibilidad.


Explotar los contenidos. Qué vale más, la audiencia o los ingresos

13 junio, 2007

En el apogeo de la burbuja tecnológica del año 2000 se solía decir que el contenido era la clave (content is king). En un momento de competencia intensa por la atención (eyeballs) que en aquel momento era equivalente de éxito y de cotización bursátil, muchas empresas desearon contar con fuentes de contenidos para sus infraestructuras y estuvieron dispuestas a casi cualquier cosa, incluyendo la disolución de sus modelos de negocio, para hacerlo.  En aquellos tiempos también aparecieron las reglas del juego, notablemente la Digital Millenium Copiright Act (DMCA), que establecía una protección para aquellas compañías que ofrecían el acceso respecto de la legalidad de los contenidos servidos a través de sus enlaces -puesto que se alegaba la imposibilidad práctica de monitorizar cada bit transmitido- siempre que se produjesen un par de circunstancias: que la compañía de infraestructura estableciese claramente una política al respecto de lo permitido a sus usuarios, incluyendo la retirada de contenidos infractores del copyright una vez detectados, y que no hubiese beneficio económico para la empresa que actuaba como plataforma.

Tras el crash de la burbuja, asistimos a una nueva era dorada de los contenidos, revitalizada esta vez por la producción social en el ecosistema del web 2.0. MySpace, Google Video, Pandora, iTunes, YouTube… muchos de los sitios de más éxito en internet explican una buena parte de sus resultados por la oferta de contenidos que ofrecen.  El más paradigmático es sin duda YouTube. Google conmovió la sociedad digital con la compra de youTube hace unos meses, y ahora es noticia porque anuncia un sistema para la gestión de los contenidos y su copyright de forma preventiva (sistema del que algunos ya desconfían en su aplicación práctica).  Aunque Google ha venido cerrando acuerdos con muchos propietarios de contenidos y unos pocos son realmente originales, es muy probable que una gran mayoría de los contenidos de YouTube sean volcados por usuarios que no disponen de la propiedad sobre los mismos, creando un sistema muy atractivo desde el punto de vista de la atención y de difícil monetización por Google, que sobrevive a las demandas de los propietarios bajo la doble ficción de que no le es posible monitorizar todo el tráfico (lo que no le ha impedido evitar la carga de pornografía a su red, como demuestra esta excepción) y de que “no colabora” (esto es, no se beneficia económicamente, aunque el tráfico de sus sitios tiene una relación directa con el valor de la compañía) con los infractores. La posibilidad de que pueda en adelante anticipar al momento de la publicación la gestión de la propiedad coloca a Google ante un dilema: ¿querrá Google forzar la remoción de contenidos ilegales a cambio de la posibilidad de explotar los que restan? Suponiendo que el sistema sea eficaz (probablemente aquí esté el quid de la cuestión), YouTube tendría la posibilidad de conseguir un negocio ‘limpio’, pero probablemente sin muchos de los usuarios (que acuden a ver contenidos protegidos) actuales, pero explotable, o mantener el sitio más efervescente de internet con la penalización de no poder explotarlo al 100%. Las economías de red y la historia empresarial de los últimos años (microsoft vs netscape, blogger vs. six apart, linux vs windows), así como la propia historia de Google parecen indicar que es preferible asegurar el dominio futuro que cosechar en el presente, aunque esta vez es posible que sus involuntarios proveedores quieran tener un voto en la decisión.


Vender tecnología o vender con tecnología

23 abril, 2007

Los mercados tecnológicos se enfrentan a un dilema: separar lo que venden (tecnología) de cómo se vende (con tecnología). En otros mercados en los que no existe la confusión, la tecnología tiene asignado un papel bien definido: contribuir a mejorar la productividad con que se compite. En los mercados tecnológicos las mejoras tecnológicas constituyen mejoras de producto, no sólo de la forma de vender, lo que lleva a menudo a interpretar que porque se vende un mejor producto (más avanzado), se está vendiendo mejor (con más eficacia y menos esfuerzo). Esta confusión está, me temo, detrás de la mayoría de fracasos de los mercados de productos tecnológicos: televisión digital terrestre, telefonía de tercera generación, el caso del video betamax, de alguna manera el Macintosh de Apple… ventajas en la tecnología (en el producto) no se trasladaron a ventajas (resultados mejores) en el mercado.

La creciente rapidez de los ciclos de producto y la incorporación de países fabricantes en condiciones crecientemente competitivas, entre otros, hacen hoy más que nunca elevadísimo el riesgo de errar con la estrategia en el mercado. Equivocarse al vender, incluso cuando se vende un buen producto, puede llevar a una empresa a la desaparición. Los resultados finales de éxito en la batalla de la tercera generación de consolas pueden suponer para Sony un contratiempo definitivo. Sony ha interpretado la guerra de las consolas, en la que partía desde una inmejorable posición tras el desenlace de la competencia por las consolas de segunda generación -que supusieron la desaparición de Sega como competidor-, como una batalla tecnológica: la mayor potencia gráfica, la mayor cantidad de componentes, necesariamente iba a resultar en una mayor atracción para el usuario. Y el resultado ha sido un producto excepcional, que parece estar interesando igualmente a un público excepcional: aquel cuyo ocio está tan relacionado con los videojuegos que un desembolso de 600€ -más los accesorios y títulos- está justificado por la sofisticación de la experiencia. Al mejorar el producto, Sony sin querer ha descremado igualmente a su público. Nintendo, por su parte, ha dado una lección de pensamiento estratégico lateral: quizás por intuición o haciendo de la imposibilidad de competir en inversión tecnológica con Sony o Microsoft, ha desarrollado un producto en el que lo novedoso es el planteamiento, no el desarrollo. No más polígonos, sino más posibilidades. No más intensidad, sino nuevos intereses. Y los resultados le están acompañando, capturando clientes por los que Sony no puede competir (ningún usuario primerizo o casual va a arriesgar 600€ en probar la experiencia del videojuego, aunque sí 250€ si además el producto no se parece tanto a aquel que ha venido ignorando hasta ahora por complejo, marginal, sedentario o violento).

Es un impulso natural pensar que el tamaño asegura el éxito, y en ningún mercado como en los tecnológicos esta premisa resulta más engañosa. Nintendo puede ganar la batalla a Sony. RIM, que jamás podrá obtener las economías de escala de que goza Nokia y que por tanto siempre tendrá que aceptar menores márgenes en la venda de dispositivos móviles, ha entendido que su oportunidad está en el software, y -para evitar que le ocurra lo que a Palm (que aceptó demasiado tarde su papel en los smartphones y sistemas operativos)- ahora desarrolla un software que permitirá contar con el correo blackberry en terminales Windows, eliminando el riesgo que tiene para su supervivencia el escenario, plausible, de que los terminales blackberry dejen de ser competitivos o queden superados en interés del público por diseños más del gusto de los usuarios, como los que hacen Apple o Nokia.

Es difícil, en compañías a las que la tecnología ha llevado a posiciones de alta rentabilidad y volúmenes en escaso margen de tiempo, aceptar que el usuario no siempre reconoce, ni valora, toda la investigación y desarrollo que hay tras el producto que emplea. Pero es muy peligroso engañarse creyendo que lo hacen.

UPDATE: En noticias.com aparece el reparto de ventas de las tres consolas de 3G. Las incluyo

ventas_consolas_3g.jpg