Precios dinámicos en telecomunicaciones

12 mayo, 2008

Desde hace años ha hecho fortuna la idea de que la gestión de relaciones con el cliente de las compañías del futuro es aquella que se mantiene de forma personalizada, uno a uno, entre la empresa y cliente. Sólo así es posible optimizar el valor aportado –y el percibido por- al usuario y por tanto contar con las máximas garantías de conservarlo. Esto no quiere decir que sólo las relaciones personalizadas funcionan, sino que el valor crece a medida que crece la personalización. Cada cliente es único, y toda compañía debería realizar el mayor esfuerzo por tratar a su cliente conforme a tal especialidad.

Por otro lado, todos tenemos presentes las consecuencias de una discriminación conocida por los clientes o el mercado: Amazon tuvo que pedir muchas disculpas hace algunos años cuando se supo que había estado ‘experimentando’ con los precios de ciertos DVDs en su web, de modo que algunos clientes los habían adquirido más caros que otros, en la misma tienda. Apple tuvo hace unos meses una experiencia algo parecida al rebajar sustancialmente el precio del iPhone sin previo aviso. La operadora de telecomunicaciones Sprint, en otro orden, ha tenido graves problemas de imagen al ser demasiado explícita respecto de lo que pensaba de algunos clientes de dudosa rentabilidad.

La pregunta es pues, ¿discriminamos a los clientes? ¿podemos incluir el precio entre las variables a considerar? Las circunstancias de cada mercado afectan a la respuesta a aportar. Hay quien ha discriminado en precios sobre la base del empaquetamiento, por cuestionable que resulte. El sector de las telecomunicaciones presenta algunas características interesantes a este respecto: dos de cada tres usuarios no conocen cuánto pagan por sus comunicaciones –conocen acaso el gasto agregado que les supone-;  un 90% de los usuarios acepta -al menos implícitamente- pagar más caras sus llamadas a cambio de una subvención del terminal, lo que no deja de ser una forma de confundir partidas de coste de forma voluntaria; y por último, se trata de un servicio de suscripción y consumo por el que cada mes el operador debe calcular cuánto ha de facturar al usuario, por un tráfico que lleva precios distintos en función del horario, destino, y condiciones contratadas por el usuario, lo que hace posible a prácticamente cualquier operador escoger un escenario por el que aparece como el más barato frente a la competencia.

Ante esta situación, en España la mayoría de nuevos entrantes apuestan por la simplicidad tarifaria como herramienta competitiva frente a la enorme confusión que los precios generan en los usuarios. Se trata de una respuesta muy poco personalizada, aunque sencilla de comunicar. ¿Es ésta la estrategia más adecuada? Sin duda para aquellos que deben acceder al mercado, dándose a conocer al público, incorpora la ventaja de la facilidad de comunicación. Sin embargo, para los operadores ya establecidos –y seguramente también para los clientes ya capturados de los virtuales- debería emplearse la personalización de los precios de forma habitual como fórmula de personalización, fidelización y optimización del valor por cliente. ¿Que un usuario suele llamar a un número únicamente por las tardes en horario valle? El operador podría ofrecerle llamar durante una semana al mismo número con tarifa valle a cualquier hora y estudiar si, junto al desplazamiento de las llamadas en el tiempo, se produce un incremento del tráfico debido a la mayor conveniencia y oportunidad. ¿Que un usuario reduce su consumo a final de mes, probablemente debido a un esfuerzo de control de gasto? El operador podría ofrecerle hacer llamadas la última semana a un 25% de descuento.

Las telecomunicaciones son un negocio de costes fijos y con prestación de servicio, donde actuar lo más próximo posible a la capacidad de la red en cada momento puede multiplicar enormemente los beneficios, y es mucho más estratégico actuar sobre los ingresos que preservar un margen saneado que esconde la capacidad desperdiciada y que constituye un coste hundido. Discriminar con precios es una estrategia arriesgada porque ningún usuario quiere sentir que paga más que su congénere por la misma contraprestación, pero la situación de las telecomunicaciones, con una gran opacidad y confusión de información, así como la posibilidad de gestionar los precios de forma permanentemente promocional y al nivel de transacción –o de grupo de transacciones- permiten creer que el planteamiento es factible.  Estamos viendo que algunos operadores emplean las promociones crecientemente (casi siempre obligando al usuario a realizar una inscripción activa, permitiendo de hecho que cada consumidor se posicione particularmente en un punto de la curva de demanda, ofreciendo información impagable sobre la elasticidad particular a los precios). Muy pronto deberíamos ver que estas promociones dejan de ser masivas y abiertas para devenir personalizadas y privadas. De este modo quizás podría contribuirse a la erosión de los ingresos de voz que afligen a todo el sector de manera general, aunque fuese a costa del margen relativo. 


La neutralidad del invasor

26 febrero, 2008

Justice

La mayoría de nosotros tenemos el grado suficiente de urbanidad (civility) como para aceptar que, con el dinero público, el reparto no corresponda a la proporción alícuota de utilización o consumo que hagamos de los recursos. No pretendemos que quien use más las autopistas pague más impuestos, por ejemplo, o que pague más quien lleve a más niños al colegio o vaya más al médico. La situación cambia cuando se trata de recursos privados, sin embargo, y nos volvemos más escrupulosos con las asignaciones. La mayoría de nosotros encriptamos nuestras conexiones wi-fi o excluimos cualquier dispositivo para evitar que un vecino aprovechado navegue a costa de nuestra cuota mensual de internet. Lo hacemos sin contemplaciones, no nos preguntamos antes si el intruso hace un uso ligero de nuestro ancho de banda que permitiese una convivencia sin molestias.

Y sin embargo, inadvertidamente estamos costeando a menudo a nuestros vecinos, o haciendo que nos costeen (en este caso con más consciencia). ¿Acaso no pagamos nosotros lo mismo por nuestro uso de correo electrónico que el que paga un spammer cuando remite miles de correos no solicitados a una lista confeccionada sospechosamente? ¿No cuesta nuestra conexión tanto si descargamos películas como si no? No cabe duda de que el uso, y el efecto sobre el modelo, no es el mismo. De acuerdo a un estudio de la consultora Detecom, un 6% de los usuarios de banda ancha consumen un 66% de la capacidad total distribuida por los ISPs. Visto de otro modo: las operadoras podrían servir a un 94% de sus clientes a un 34% del coste actual. Y sin embargo, como si fuesen aseguradoras, aplican una ley de los grandes números a su modelo: cobran lo suficiente como para que, aún con los previsibles incómodos pasajeros que exprimen cada bit de sus circuitos, obtengan sus márgenes objetivo.

Dejando aparte la disponibilidad -bien asentada en el desconocimiendo de la situación- del 94% los usuarios a costear los hábitos del 6% restante, la situación actual sólo se explica por un exceso de capacidad en la red, de manera que el coste de oportunidad para los ISPs es pequeño. Sin embargo, el crecimiento en servicios y aplicaciones va a requerir un incremento adicional notable de la capacidad de la red para darles soporte, en cuyo proceso es posible que veamos situaciones -temporales o no- de estrangulamiento (tal y como cínicamente comentan desde STL Partners en su blog, «Video will kill the ISP Star«). Hace poco se publicaba la noticia de que para los operadores con red, llevar fibra óptica hasta el hogar va a representar entre 1.000 y 1.500€ por tendido. Ante tales inversiones, la rentabilidad obliga. ¿Querrán los operadores seguir apostando al grueso de la pieza o acaso comenzar a fijar blancos móviles, con la promesa de elevar varios cuerpos la rentabilidad? ¿Aceptaremos los usuarios la repercusión de los costes prorrateados, o se abrirán brechas entre la masa exigiendo pago a escote

Al defender la neutralidad de la red, muchos sostienen que el carácter abierto y no discriminatorio de internet no debería perderse, pero olvidan que internet se construye, hoy más que nunca, con iniciativas privadas fiadas a la promesa -más o menos lejana- de obtener un beneficio. Para que tengamos infraestructuras mañana que permitan acceso a nuevos servicios, es necesario que tanto las redes como los creadores de contenidos -incluso aquéllos que, como quien escribe, no reciben ingresos por la actividad, dependen de que la herramienta de publicación wordpress sea rentable en algún momento- reciban un modelo válido -desde el mercado- de supervivencia. Pretender otra cosa requerirá últimamente justificar la nacionalización o adscripción pública de la red para que sea costeada con cargo a presupuestos, tanto por quienes navegan como por los que no. El debate no es tanto admitir o no la neutralidad de la red –la red no podrá ser neutral ante su propia existencia-, sino más bien qué criterios son admisibles para discriminar el uso que cada uno de nosotros hacemos de ella.


El móvil fácil

30 enero, 2008

Ya tenemos en el mercado español un nuevo operador móvil (virtual), SIMYO. Se añade a los ya ‘establecidos’ Yoigo, Pepe Phone, Eroski Móvil, Carrefour Móvil… casi todos con un denominador común: una oferta reducida a un único plan de tarifas, de tarifa única (o casi, algunos operadores, como R en Galicia, han aparecido con una tarifa adaptable al consumo, única en todo caso para el usuario en su tramo de uso).

Por alguna razón, todos los operadores que están saliendo aportan la misma propuesta. Para aquellos a quienes la complejidad y carestía de la oferta dominante les provoca una insatisfacción tal como para abrazar cualquier alternativa sencilla, aquí una planteada en terminos numéricos: 12c, ó 15c, ó 9c, por todas las llamadas/sms/… que se quieran hacer.

La teoría nos recuerda que al lanzar una oferta a un mercado el primer paso es determinar el mercado potencial o segmento objetivo al que nos gustaría servir más directa y rentablemente (al menos en términos relativos). ¿Resulta tan atractivo el segmento de usuarios que valoran precio y simplicidad? Aproximadamente dos de cada tres usuarios desconocen qué precios pagan por sus llamadas, así que a primera vista el precio, para una mayoría de usuarios, no sería tan crítico como factor. ¿Qué motiva pues a los usuarios? De nuevo, cerca de dos de cada tres admiten que cambiarían de operador por obtener un móvil nuevo. ¿Puede aquí un operador entrante lanzar una oferta atractiva? Es complicado, puesto que el coste de los terminales va en relación con los volúmenes negociados y ofrecer lo mismo que los dominantes ya implica un esfuerzo muy superior (que además tendrá que recuperarse con tarifas menos rentables. De ahí que algunos de los nuevos operadores estén planteando las activaciones con los terminales liberados de la competencia).

¿Por qué ofrecer entonces una oferta simplificada y abaratada? ¿Por qué ponerse en situación de tener que recuperar, con menores ingresos, una inversión en la adquisición del cliente mayor? ¿y por qué escoger como terreno de juego un segmento, acaso minoritario de usuarios, donde además se concentra la mayor cantidad de oferta competitiva e igualadora? Hay un aspecto, entre todas las valoraciones, que parece incuestionable. Vender precio es sencillo de comunicar. Cualquier departamento de marketing o de comunicación resuelve con facilidad la necesidad de construcción de la propuesta. Basta ocupar el 70% del espacio del home, del anuncio en el periódico, con un único número, y el usuario abandona el lugar con una comprensión clara de lo que se le ofrece. Si no lo confunde con alguno de los numerosos mensajes de la competencia, claro. Vender conveniencia, fiabilidad, servicio, o incluso producto es más complicado, intangible, y no garantiza ningún éxito. Repasar un mercado para identificar estímulos de comportamiento diferentes al coste que formen segmentos relevantes -los gamers e internet addicts, necesitados de comunidad, los autónomos, reclamando atención comercial personalizada, los trabajadores en la calle, reclamando conveniencia y predictibilidad del gasto- tampoco. Aunque en la visión el éxito nunca está garantizado, sino en la ejecución. Y al menos se comienza en un lugar donde el ruido del mercado es inferior.


Respuestas en busca de preguntas

5 octubre, 2007

El negocio de los buscadores es hoy probablemente el principal mercado de internet. Alrededor de las búsquedas se concentra la mayor parte del negocio publicitario, y el negocio publicitario es hoy el principal sustento de la mayoría de pobladores de internet. El negocio de las búsquedas -aunque fuese descubrierto por otras empresas- encumbró a Google, y tras su estela aparece un interés redivivo sobre la mejor tecnología para ofrecer a los usuarios lo que buscan y necesitan.

El hecho es que el dominio de Google sobre la tecnología de la búsqueda, el secreto de la relevancia de los resultados, parece tan absoluto que en algunos casos uno siente la tentación de dar la guerra por concluída. Google no sólo cuenta con la mejor tecnología, cuenta con la mejor marca, la posición más dominante, y los mayores recursos que destina además en una superior proporción a investigar y desarrollar la mayor potencia y verosimilitud de los resultados. Intentar hacer de Google mejor que Google puede parecerle razonable a algunos, pero suscita escepticismo a priori. ¿Hemos llegado al final de la historia de las búsquedas?

Desde luego, muchos piensan que no, y la propia evolución de internet y de los negocios tecnológicos desaconseja excluir el cambio como variable. La cuestión es adivinar la grieta en la coraza de Google por donde pueda ésta resquebrajarse. O inventarla. La historia de los fracasos empresariales nunca comienza por una crisis prevenida.

Probablemente el origen del cambio consista en desplazar el rectángulo de juego tecnológico, en el que Google se encuentra tan cómodo, a otro más azul y en el que las reglas no las marque un algoritmo. ¿Qué es lo que valora un usuario cuando lanza una búsqueda al ciberespacio? ¿Decenas de miles de resultados? Recuerdo haber leído estudios sobre búsquedas en los que se arrojaba una media de poco más de dos páginas visitadas, es decir, menos de 30 links son consultados en media tras una búsqueda. Si no es cantidad pues, lo que satisface al usuario, se trata sin duda de calidad, pero ¿cómo medirla y aun obtenerla? Cuando uno emite una búsqueda, conoce la respuesta que espera aunque ignore su contenido, y el mayor esfuerzo personal reside en transmitir adecuadamente a la máquina la pregunta que lleva aparejada. Las máquinas que atienden a nuestras preguntas no empatizan, no contextualizan nuestra necesidad, no son capaces de superar la ambigüedad de nuestras expresiones. La mejora de los resultados de las búsquedas que anhelamos acaba pues por exigirnos un trabajo de aproximación: o las personas mejoramos en nuestra interpelación a las máquinas, haciéndonos más precisos y menos ambiguos al consultar, o las máquinas se vuelven más humanas y comprensivas y nos sobreentienden cuando lo necesitamos.

Los nuevos buscadores aparecen entonces por la frontera de la socialización de las máquinas. Mahalo, por ejemplo, comprende el esfuerzo de hacerse preguntas y resolverlas manualmente, para luego alojar dichas respuestas en la máquina. Representa la antítesis de Google. El problema está en el esfuerzo. Mahalo admite que no podrá atender más allá de un 30% de las preguntas (no será capaza de hacerse más de un 30% de las preguntas, en primer lugar), aunque dicho porcentaje puede representar una mayoría de los casos debido a la concentración de las necesidades (unos pocos términos son los más buscados). Mahalo está intentando superar el problema de la limitación incorporando a usuarios a la tarea de clasificar la web. En esta línea, la etiquetación de la web a la que estamos asistiendo desde los sitios web 2.0 puede estar abonando el futuro de los nuevos buscadores. Algunos lo han apuntado ya (el blog Read/Write Web sobre el papel de Del.icio.us y StumbleUpon como generadores de resultados), y los optimistas del poder de los usuarios probablemente celebran la posibilidad.


El líder constante

28 agosto, 2007

Hace unas semanas conjeturaba sobre la posibilidad de que el grupo pudiese ser elevado a la categoría de participante en la toma de decisiones en entornos críticos, como el gobierno político o corporativo, gracias al avance de la tecnología que materializa la formación de opiniones y su expresión en tiempo real. Sobre esto no fui novedoso, otros han abundado tanto sobre el nuevo poder de los individuos como sobre la calidad de las decisiones tomadas por los grupos. A través de una entrada de E. Dans observo actualmente un ejercicio real, aunque aún en gestación, de entrega de la decisión a un grupo: la gestión de un equipo de fútbol .

El caso tiene varios aspectos interesantes. De un lado, en el mundo del fútbol la cualidad de experto técnico (en la gestión, en este caso) es más difusa que en casi cualquier otro (no existe nada parecido a una escuela de gestores de equipos, y cuando las hay, pasan de puntillas sobre las decisiones que verdaderamente separan a los clubes exitosos de los demás, como la elección de los jugadores a comprar, a vender o la valoración adecuada de los mismos al confeccionar las plantillas). Unas cosas y otras conducen a considerar la dirección de equipos de fútbol, en gran medida, un arte antes que una ciencia, un sujeto de fortuna antes que un objeto de trabajo, como si el secreto de la gestión fuese un arcano inalcanzable para cualquier individuo de forma deliberada.  Por otra parte, el carácter de competición parece facilitar las comparaciones sobre qué organizaciones estan mejor gestionadas, de modo que los resultados del experimento, aunque necesiten de un periodo suficiente para ser significativos, podrían aportar conclusiones significativas. De este ejercicio el individuo podría quedar señalado como un pasivo en la toma de decisiones frente a un grupo más inteligente que él, que no envejece, más difícil de corromper, más constante.

Aunque hablemos de fútbol, podrían ser plantillas u organizaciones de cualquier tipo: el fútbol lo único que hace es exacerbar la guerra por el talento en términos de riesgo económico y con ello las consecuencias de decidir correcta o erróneamente. Lo que de aquí se concluya será razonablemente exportable a otros ámbitos. 

 J. Surowiecki, en su libro fantásticamente documentado, apunta multitud de casos (en política, o en criterios de calidad artística) en los que el colectivo concibe mejores decisiones que el individuo. Para obtener sin embargo decisiones válidas del grupo es necesario que éste sea independiente (que unos individuos no condicionen las respuestas de los otros). Cuando no lo es, Surowiecki lo llama turba [mob] y es descartado como un productor eficaz de decisiones. En este punto, el fútbol no será un buen caldo de cultivo: demasiadas pasiones, demasiada atención, demasiada discusión.

Pero el mayor problema práctico viene en mi opinión de la articulación de las fronteras entre las responsabilidades de ambos. Es evidente que el grupo no tiene una existencia permanente, se constituye y expresa para la ocasión, es multiforme y es discontinuado, por lo que nadie, ni siquiera Surowiecki sugiere que los grupos suplanten a los individuos completamente. Es necesario asignar a cada uno un área de acción. El individuo, a través de su pericia técnica, es capaz de avanzar en terrenos administrativos, burocrácticos, de análisis y coordinación, mientras que el grupo podría entrar en escena cuando se requiera una decisión estratégica. Pero ¿qué ocurrirá con lás zonas grises? ¿Quién presenta y determina las opciones al grupo, para su elección? ¿Quién determina los límites o condicionantes de la decision -por ejemplo, cuánto endeudarse para fichar jugadores-? Sospecho que en la contienda entre el grupo e individuo, será un individuo quien ejerza de juez.


La moneda virtual de la atención

9 julio, 2007

Buena parte del fracaso del internet 1.0 se fundó en la ausencia de modelos de ingreso o, dicho con más precisión, en la creación de modelos de ingreso que pretendían -sin consideración de la realidad- ofrecer servicios bajo el modelo publicitario: el usuario no paga por su disfrute, paga una tercera empresa por la atención (eyeballs) obtenidas en la congregación de visitantes y usuarios. Este modelo no es necesariamente malo, aunque en durante la burbuja sufrió degradaciones como justificar negocios para los que no había exhibidores, o plantearse de forma irrazonable (los modelos publicitarios, hasta la aparición de la larga cola, suelen aparecer con un esquema winner takes all que impide la supervivencia de más de uno o dos jugadores, y aún hoy al paraguas del long tail, de forma general no aseguran la rentabilidad de los entrantes más que con estructuras de coste optimizadas).

En todo caso, y aun pesando las innumerables defunciones de empresas que no han superado la prueba de la segunda ronda de financiación, durante todo este tiempo el modelo de ingreso publicitario se ha mantenido con fuerza, cotizando crecientemente al alza una nueva divisa digital: una falsa gratuidad. ¿Qué significa gratis para el usuario? No pagar dinero. Pero en la economía de la atención, aparece una nueva moneda, la información. Los modelos de negocio parecen refinarse hasta el extremo en que los ha dejado Google, en el encuentro de un click de un usuario con su conversión en compra para un comerciante a través de una intención declarada. Si primero se pagaba por surfear, lo cual acabó en algunos desastres y en el marketing bajo permiso, ahora asistimos a un modelo mucho más potente, por lo masivo, e inquietante, por el objeto de contraprestación, a saber, conveniencia -casi sin límites- en el medio digital, de forma gratuita, a cambio del ‘alma’ virtual del usuario. El rastro digital de nuestras vidas, que cada día es más profundo, completo, y real, custodiado por un celador que en este caso es juez y parte. ¿Cabe fiarse a la escrupulosidad, rigor y honestidad de Google en la promesa de cuidado hecha? En primer lugar, ¿sabemos a qué se ha comprometido Google y dónde se ha fijado a sí mismo los límites de su actuación? Tomándolo del post de Battelle, quien a su vez extracta los términos de servicio de Gooogle (el subrayado es mío):

11.1….By submitting, posting or displaying the content you give Google a perpetual, irrevocable, worldwide, royalty-free, and non-exclusive licence to reproduce, adapt, modify, translate, publish, publicly perform, publicly display and distribute any Content which you submit, post or display on or through, the Services. This licence is for the sole purpose of enabling Google to display, distribute and promote the Services and may be revoked for certain Services as defined in the Additional Terms of those Services.

11.2 You agree that this licence includes a right for Google to make such Content available to other companies, organizations or individuals with whom Google has relationships for the provision of syndicated services, and to use such Content in connection with the provision of those services.

Recientemente E. Dans, quien en el pasado había elogiado la labor de Google y su dirección, se cae del caballo para criticar duramente los últimos movimientos del buscador. Al contrario que la moneda financiera, la moneda de la atención se reevalúa con la acumulación: cuanta más precisión exista en los perfiles que se conforman de nuestra persona, máyores son las posibilidades de intromisión y mayores los temores. Al haber otorgado tanto poder a un único destinatario, nuestra desconfianza se dispara. Y sin embargo, y pese al murmullo, no se observa más que pasividad en los usuarios, no figuran movimientos de rechazo o animadversión contra los buscadores. ¿Cómo explicar esto? En parte, Google aún se beneficia de la inmejorable acumulación de capital en relaciones públicas que consiguió amasar durante años. Pero en parte también porque mediante la explotación del modelo de la gratuidad, Google ha conseguido un efecto esencial sobre el valor percibido de la moneda con que se cobra: ha devaluado su cotización. Por último, las identidades digitales, -por lo que tienen de ficticias o al menos de potencial de serlo- en la red han contribuido a formar una imagen difusa, devaluada, de nuestros yos virtuales (no tenemos apego ni consideración por nuestro rastro en la red, es considerada en parte reponible, sustituible, reproducible y desechable), aspecto del que Google se ha beneficiado enormemente. Y sin embargo, nuestra huella digital es un reflejo cada vez es más fiel de quiénes somos en realidad y a qué aspiramos. Pero esto ya lo sabe Google.


Explotar los contenidos. Qué vale más, la audiencia o los ingresos

13 junio, 2007

En el apogeo de la burbuja tecnológica del año 2000 se solía decir que el contenido era la clave (content is king). En un momento de competencia intensa por la atención (eyeballs) que en aquel momento era equivalente de éxito y de cotización bursátil, muchas empresas desearon contar con fuentes de contenidos para sus infraestructuras y estuvieron dispuestas a casi cualquier cosa, incluyendo la disolución de sus modelos de negocio, para hacerlo.  En aquellos tiempos también aparecieron las reglas del juego, notablemente la Digital Millenium Copiright Act (DMCA), que establecía una protección para aquellas compañías que ofrecían el acceso respecto de la legalidad de los contenidos servidos a través de sus enlaces -puesto que se alegaba la imposibilidad práctica de monitorizar cada bit transmitido- siempre que se produjesen un par de circunstancias: que la compañía de infraestructura estableciese claramente una política al respecto de lo permitido a sus usuarios, incluyendo la retirada de contenidos infractores del copyright una vez detectados, y que no hubiese beneficio económico para la empresa que actuaba como plataforma.

Tras el crash de la burbuja, asistimos a una nueva era dorada de los contenidos, revitalizada esta vez por la producción social en el ecosistema del web 2.0. MySpace, Google Video, Pandora, iTunes, YouTube… muchos de los sitios de más éxito en internet explican una buena parte de sus resultados por la oferta de contenidos que ofrecen.  El más paradigmático es sin duda YouTube. Google conmovió la sociedad digital con la compra de youTube hace unos meses, y ahora es noticia porque anuncia un sistema para la gestión de los contenidos y su copyright de forma preventiva (sistema del que algunos ya desconfían en su aplicación práctica).  Aunque Google ha venido cerrando acuerdos con muchos propietarios de contenidos y unos pocos son realmente originales, es muy probable que una gran mayoría de los contenidos de YouTube sean volcados por usuarios que no disponen de la propiedad sobre los mismos, creando un sistema muy atractivo desde el punto de vista de la atención y de difícil monetización por Google, que sobrevive a las demandas de los propietarios bajo la doble ficción de que no le es posible monitorizar todo el tráfico (lo que no le ha impedido evitar la carga de pornografía a su red, como demuestra esta excepción) y de que «no colabora» (esto es, no se beneficia económicamente, aunque el tráfico de sus sitios tiene una relación directa con el valor de la compañía) con los infractores. La posibilidad de que pueda en adelante anticipar al momento de la publicación la gestión de la propiedad coloca a Google ante un dilema: ¿querrá Google forzar la remoción de contenidos ilegales a cambio de la posibilidad de explotar los que restan? Suponiendo que el sistema sea eficaz (probablemente aquí esté el quid de la cuestión), YouTube tendría la posibilidad de conseguir un negocio ‘limpio’, pero probablemente sin muchos de los usuarios (que acuden a ver contenidos protegidos) actuales, pero explotable, o mantener el sitio más efervescente de internet con la penalización de no poder explotarlo al 100%. Las economías de red y la historia empresarial de los últimos años (microsoft vs netscape, blogger vs. six apart, linux vs windows), así como la propia historia de Google parecen indicar que es preferible asegurar el dominio futuro que cosechar en el presente, aunque esta vez es posible que sus involuntarios proveedores quieran tener un voto en la decisión.


¿Quienes serán los periodistas del futuro (digital)?

7 junio, 2007

El modelo de negocio de la prensa escrita está sufriendo importantes sacudidas, de las que es difícil anticipar el desenlace tras la crisis. John Battelle recupera en una entrada reflexiones profundas, y preocupadas, sobre el futuro del sector. En un país donde los salarios son costes completamente variables, el San Francisco Chronicle anuncia el despido de 100 trabajadores como fórmula para reducir gastos y conservar la rentabilidad. Battelle solicita que, frente a la dramática situación del periodismo impreso, Google asuma su responsabilidad social subsidiaria y asuma un papel de liderazgo en la generación de ideas e información. Recientemente H. Blodget, al calor de la venta de Dow Jones, editor de WSJ, al News Corporations, abunda en la idea sugiriendo que Google o Yahoo! podrían ser interesantes adquirentes del grupo periodístico.

El ascenso del web 2.0 y la multiplicación de los emisores de información ha estado ocultando un hecho muy relevante: las fuentes originales de contenido siguen siendo muy reducidas: gran parte de la multiplicación de los mensajes que se observa en este época son eco de unos pocos materiales que se rastrean y revelan en la mayoría de los casos gracias a la actividad profesional  de algunos grupos y organizaciones comprometidos -por vía de la satisfacción empresarial de una demanda del mercado- con la producción informativa. Sin ellos, todo el escenario del web 2.0 puede tambalearse seriamente, inconsistente sin el atrezzo de los datos e historias que funcionan como materia prima y que contribuyen a dotar de significado mediante la aplicación de infinitas perspectivas personales.

La inevitable transformación del escenario de los medios (quizás sería más propio llamar orígenes) de información no garantiza una evolución a mejor, sólo una transformación de los modelos de negocio: las fuentes de ingresos se desplazan a medios más eficientes (publicidad contextual frente a segmentaciones básicas, anuncios clasificados dinámicos y accesibles en la web que desaparecen de la prensa escrita donde se vuelven obsoletos en minutos). El problema de la gestión de la atención ha proporcionado a los medios digitales, con las herramientas de la personalización y los filtros, la manera de intermediar entre las fuentes originales y los usuarios complejos que encuentran ahora el modo de digerir todas las fuentes que les interesan gracias una asimilación previa que les entrega el portal, con importante beneficio económico derivado de monetizar todas esas páginas vistas.

El nuevo modelo de negocio sitúa a los medios tradicionales en una situación insostenible (los medios tienen vocación de influir, de formar opiniones, pero hacerlo -entrando en la red- les supone un coste que no saben recuperar, y no hacerlo les condena a la marginalidad) en la que lo único que saben apreciar con nitidez es la elevación de los nuevos infomediarios, a quienes no saben si demandar o pedir ayuda. A su vez, los nuevos intermediarios se declaran, cada vez con menos convencimiento, como empresas sin participación en la creación del contenido, solo en su agregación y entrega. A medida que se haga más evidente el poder de los nuevos intermediarios y la importancia de las fuentes de contenido, será más extraño no verticalizar los negocios, y entonces los agregadores se enfrentarán a un dilema para el que no han sido educados: la elección entre el contenido propio y el interés del usuario.


Vender tecnología o vender con tecnología

23 abril, 2007

Los mercados tecnológicos se enfrentan a un dilema: separar lo que venden (tecnología) de cómo se vende (con tecnología). En otros mercados en los que no existe la confusión, la tecnología tiene asignado un papel bien definido: contribuir a mejorar la productividad con que se compite. En los mercados tecnológicos las mejoras tecnológicas constituyen mejoras de producto, no sólo de la forma de vender, lo que lleva a menudo a interpretar que porque se vende un mejor producto (más avanzado), se está vendiendo mejor (con más eficacia y menos esfuerzo). Esta confusión está, me temo, detrás de la mayoría de fracasos de los mercados de productos tecnológicos: televisión digital terrestre, telefonía de tercera generación, el caso del video betamax, de alguna manera el Macintosh de Apple… ventajas en la tecnología (en el producto) no se trasladaron a ventajas (resultados mejores) en el mercado.

La creciente rapidez de los ciclos de producto y la incorporación de países fabricantes en condiciones crecientemente competitivas, entre otros, hacen hoy más que nunca elevadísimo el riesgo de errar con la estrategia en el mercado. Equivocarse al vender, incluso cuando se vende un buen producto, puede llevar a una empresa a la desaparición. Los resultados finales de éxito en la batalla de la tercera generación de consolas pueden suponer para Sony un contratiempo definitivo. Sony ha interpretado la guerra de las consolas, en la que partía desde una inmejorable posición tras el desenlace de la competencia por las consolas de segunda generación -que supusieron la desaparición de Sega como competidor-, como una batalla tecnológica: la mayor potencia gráfica, la mayor cantidad de componentes, necesariamente iba a resultar en una mayor atracción para el usuario. Y el resultado ha sido un producto excepcional, que parece estar interesando igualmente a un público excepcional: aquel cuyo ocio está tan relacionado con los videojuegos que un desembolso de 600€ -más los accesorios y títulos- está justificado por la sofisticación de la experiencia. Al mejorar el producto, Sony sin querer ha descremado igualmente a su público. Nintendo, por su parte, ha dado una lección de pensamiento estratégico lateral: quizás por intuición o haciendo de la imposibilidad de competir en inversión tecnológica con Sony o Microsoft, ha desarrollado un producto en el que lo novedoso es el planteamiento, no el desarrollo. No más polígonos, sino más posibilidades. No más intensidad, sino nuevos intereses. Y los resultados le están acompañando, capturando clientes por los que Sony no puede competir (ningún usuario primerizo o casual va a arriesgar 600€ en probar la experiencia del videojuego, aunque sí 250€ si además el producto no se parece tanto a aquel que ha venido ignorando hasta ahora por complejo, marginal, sedentario o violento).

Es un impulso natural pensar que el tamaño asegura el éxito, y en ningún mercado como en los tecnológicos esta premisa resulta más engañosa. Nintendo puede ganar la batalla a Sony. RIM, que jamás podrá obtener las economías de escala de que goza Nokia y que por tanto siempre tendrá que aceptar menores márgenes en la venda de dispositivos móviles, ha entendido que su oportunidad está en el software, y -para evitar que le ocurra lo que a Palm (que aceptó demasiado tarde su papel en los smartphones y sistemas operativos)- ahora desarrolla un software que permitirá contar con el correo blackberry en terminales Windows, eliminando el riesgo que tiene para su supervivencia el escenario, plausible, de que los terminales blackberry dejen de ser competitivos o queden superados en interés del público por diseños más del gusto de los usuarios, como los que hacen Apple o Nokia.

Es difícil, en compañías a las que la tecnología ha llevado a posiciones de alta rentabilidad y volúmenes en escaso margen de tiempo, aceptar que el usuario no siempre reconoce, ni valora, toda la investigación y desarrollo que hay tras el producto que emplea. Pero es muy peligroso engañarse creyendo que lo hacen.

UPDATE: En noticias.com aparece el reparto de ventas de las tres consolas de 3G. Las incluyo

ventas_consolas_3g.jpg


De la conectividad al servicio de telecomunicación

6 marzo, 2007

Una entrada de E. Dans me hace reflexionar sobre la supuesta amenaza de tecnologías disruptivas en las telecomunicaciones, como es el caso de wifi y wimax. Ambas permiten establecer comunicaciones inalámbricas sin necesidad de contar con la infraestructura de un operador. Sin embargo, una cosa es que sea posible, y otra que se haga realidad de la forma masiva y económica que afectaría a los negocios de un operador.

El negocio de la tecnología tiene como esencia el cambio, un cambio que es crecientemente acelerado. Por tanto ningún agente del mercado puede permitirse confiar el futuro de su negocio a su portfolio actual de servicios. Los grandes gigantes del sector han dado probadas muestras de conocer esto. En este escenario, elementos como la marca, las operaciones, la gestión de relaciones conforman una palanca de sostenibilidad en el negocio superior a la calidad técnica de un producto en un momento. Los usuarios lo reconocen así de forma implícita con sus elecciones y comportamientos, y sólo así se explica el éxito de servicios de escasa complejidad técnica o conceptual (como el SMS, las centralitas) frente a otros dotados de enormes inversiones (el MMS, las videollamadas, …) que han sido comercializados con un gran coste y un escaso retorno. La tecnología no explica necesariamente el éxito en el mercado ni siquiera en mercados tecnológicos.

La irrupción de tecnologías nuevas pues, sin ser un hecho irrelevante, no determina inevitablemente el derrumbamiento de los modelos de negocio actuales más allá de lo que la propia sucesión de tecnologías ya garantiza. WiMax y Wifi son blandidos por outsiders como puntas de lanza de las rupturas en la forma de telecomunicarse, pero para que realmente se produjesen cambios tectónicos sería necesario mucho más que introducir un nuevo protocolo: contar con sistemas de regulación de las frecuencias que permitan a los agentes prestar servicios comerciales con la mínima calidad aceptable por los usuarios, a salvo de interferencias o pérdidas de información (esto puede darse en el caso WiMax utilizando frecuencias asignadas al LMDS, pero limitaría la entrada a 3 competidores nuevos -uno de los cuales ya ha sido adquirido por Telefónica-, no a la supuesta horda de startups o diversificadores de la que se habla); contar con sistemas de gestión de clientes que permitan procesar los eventos asociados al disfrute del servicio (facturas, incidencias con el servicio o con los terminales, garantías y reposiciones, ..) sin interrupciones o perjuicios para los usuarios; proveer terminales fiables y a un precio asequible (algo complicado puesto que para ello hace falta una escala de la que hoy sólo disponen los operadores);  garantizar el tamaño de mercado suficiente como para que las empresas proveedoras de servicios cuenten con un ecosistema que les permita su aprendizaje y crecimiento en un marco de estabilidad,… todo ello sitúa la distancia entre la tecnología y el mercado mucho más amplia de lo que la mera entrega de paquetes o datos aparenta. Sin ello, las tecnologías no pasan de ser un campo de juego de los early adopters, observado atentamente por los incumbentes.