1
I CONGRESO ACADÉMICO 2017
DESAFÍOS, EVOLUCIÓN Y TENDENCIAS DEL TERRITORIO EMPRESARIAL EN EL SIGLO
XXI
PAPERS Y ARTÍCULOS
EVOLUCIÓN EMPRESARIAL
Sede Santiago Centro
12 y 13 de Diciembre
2017
2
Editorial
El objetivo de este Congreso fue presentar nuevas tendencias y desafíos del territorio empresarial asociado a la MyPE, avances en el campo de la investigación aplicada en ámbitos propios de la empresa, además de experiencias innovadoras en ámbitos del conocimiento relacionado con la realidad nacional e internacional, así como también, nuevos enfoques y tendencias vinculadas a la innovación económica. En esta primera versión se contó con la presencia de grandes exponentes tales como:
Sr. Pablo Pombo González, Doctor en Ciencias Económicas y Empresariales Universidad de Córdoba (España), Diplomado en Estudios Avanzados del Programa de Doctorado “Plani�cación, dirección y entorno económico y social de la Empresa”, de la Orden del Mérito Civil por S.M. el rey Juan Carlos I. Presidente, consejero Delegado y Director General de Crediaval S.G.R., ahora Suraval, posee una amplia experiencia en el sector de los sistemas de garantía. Presidente Fundador de la Asociación Europea de Caución Mutua (AECM), primer Presidente de su Consejo de Administración, entre otras distinciones a su haber.
Sra. Fernanda Vicente, Periodista, Licenciada en Estética y Magíster en Innovación de la Universidad Católica, diplomada en Marketing Comunicacional y Marketing de Productos y Servicios Tecnológicos de la Universidad de California y graduada de Founder Institute, programa basado en Silicon Valley para lanzar Startups Globales. Primera chilena reconocida por el Women Economic Forum (WEF), su carrera profesional ha estado centrada en el liderazgo de proyectos ligados al emprendimiento, innovación y empoderamiento de la mujer en el mundo empresarial. Directora de la Asociación de Emprendedores de Chile (ASECH) y de la Asociación de Emprendedores de Latinoamérica (ASELA).
Sr. David Díaz Solis, Ph.D. in Business Intelligence, University of Manchester Business School, Manchester, Inglaterra, Magíster en Finanzas, e Ingeniero Comercial, Universidad de Chile. Especializado en temáticas asociadas a Business Intelligence, Service Analytics, Finanzas, Minería de Datos, Innovación, Sistemas de Información Gerencial, Inteligencia artificial aplicada a la valoración de activos y temas financieros. Coordinador del área inteligencia de negocios en la Facultad de Economía y Negocios, Universidad de Chile. Miembro del comité académico congreso BALAS 2017
El Congreso pretendió ser un importante canal de difusión e intercambio de conocimiento entre la academia y el territorio empresarial en materias de emprendimiento, productividad, calidad, tecnología, innovación y género entre otros tópicos. Es una instancia de encuentro que propicia el diálogo entre académicos, estudiantes, industriales, empresarios y representantes de gobierno, quienes a través diversos constructos permitirán el desarrollo empresarial y académico del país.
Juan Ignacio Carvallo Vicerrector Sede Santiago Centro
3
PATROCINADORES
4
Comité de Expertos:
Sr. Roberto Álvarez
Profesor Titular (Jornada Completa) Facultad de Economía de la Universidad de
Chile.
Ingeniero Comercial de la Universidad de Chile, Magíster en Economía y Doctor
en Administración de la Universidad de California, Los Ángeles. Investigador de
INTELIS del Departamento de Economía de la Universidad de Chile y Economista
Senior de la División de Política Financiera del Banco Central de Chile. Ha
realizado investigaciones en comercio internacional, innovación tecnológica y
productividad.
Sr. Lucas Navarro
Profesor Titular Facultad de Economía y Negocios de la Universidad Alberto
Hurtado.
PhD en Economía en Georgetown University. Es MA en Economía de ILADES-
Georgetown University y Licenciado en Economía de la Universidad Nacional de
Córdoba. Antes de incorporarse a la Universidad Alberto Hurtado tuvo posiciones
académicas en Queen Mary, University of London (2005-2008) y New York
University in London (2007-2008).
Sr. Andrés Zahler
Director de Plein (Plataforma de Emprendimiento de Innovación), Universidad
Diego Portales.
Doctor en Políticas Públicas y Máster en Administración Pública y Desarrollo
Internacional de la Universidad de Harvard, Magíster en Macroeconomía Aplicada
y Economista de la Pontificia Universidad Católica de Chile.
Fue jefe de la División de Innovación del Ministerio de Economía, consultor del
Banco Mundial, del Banco Africano de Desarrollo, miembro del Centro para el
Desarrollo Internacional de la Universidad de Harvard e investigador del Núcleo
Milenio Intelis de CONICYT.
5
Sr. Marcelo González Araya
Profesor asistente del Departamento de Administración de Empresas de la
Facultad de Economía y Negocios de la Universidad de Chile.
Master of Arts in Economics, Tulane University, New Orleans, USA
Ingeniero Comercial, Universidad de Chile, Santiago, Chile
Sus áreas de Especialización son Estructura de Capital, Finanzas Corporativas,
Finanzas Estratégicas y Gobiernos Corporativos.
Sr. Pedro Hidalgo Campos
Académico Asociado del Departamento de Administración de Empresas de la
Facultad de Economía y Negocios de la Universidad de Chile.
Magister de Science in Business, University of Kansas, Kansas, Estados Unidos.
Ingeniero Comercial, Universidad de Chile, Santiago, Chile.
Contador Auditor, Universidad de Chile, Santiago, Chile.
Sus áreas de Especialización son: Marketing, Marketing Estratégico,
Comunicaciones Estratégicas, Customer Equity, Customer Centric Management,
E-Marketing, Administración de Ventas, Conductas del Consumidor, Investigación
de Mercado, Retailing y Marketing de Servicios.
Sra. Magdalena Vargas Claros
Académico Universidad Tecnológica de Chile INACAP.
Académico Universidad Andrés Bello, UNAB.
Facultad de Ingeniería, Facultad de Ciencias Exactas.
Ingeniero Comercial, Universidad de Tarapacá.
Phd. of Philosophy in Business Administration Université Libre des Sciences de
l'Entreprise et des Technologies de Bruxelles" (ULSETB) (candidato)
Magister en Gestión Empresarial, Facultad de Ingeniería, Universidad Técnica
Federico Santa María (UTFSM), Santiago, Chile.
Magister en Docencia para la Educación Superior, Universidad Andrés Bello,
UNAB (candidato)
MBA en Administración mención Finanzas (Egresado) U. de Chile.
Especialización en Preparación y Evaluación de Proyectos, U. de Chile.
Trabajó para los Ministerios de Minería y Salud, a cargo de programas
ministeriales y como analista de estudios. En el sector privado en Bellsouth Chile,
Evaluador experto de la secretaría general de gobierno, Consultor especializado
en ING Corp, Coordinadora en UCSH, Coordinadora de finanzas en UDLA,
Directora de carrera en UNAB, Coordinadora Clínica MyPE UTCH – INACAP.
6
Comité de Organización:
Dirección: Sr. Juan Ignacio Carvallo Vicerrector Sede Santiago Centro Coordinadora: Sra. Magdalena Vargas-Claros Académico Sede Santiago Centro Colaborador logístico Sr. José Miguel Giglio Director Clínica MyPE RM Dirección de Comunicación: Sra. Cecilia Aguilera Hennicke Sede Santiago Centro Dirección Financiera: Srta. Ivonne Guíñez Sede Santiago Centro Colaborador de gestión: Sr. Rodrigo Toledo de los Santos Académico
7
Í N D I C E
ECONOMÍA:
Impacto de los Obstáculos al Conocimiento en la Innovación de las Empresas Chilenas Serie Documento de Trabajo (SDT452) Facultad de Economía y Negocios Universidad de Chile, Departamento de Economía Pág. 9
Beyond transport time: A review of time use modeling Paper presentado en Journal Elseiver Facultad de Economía y Negocios Universidad de Chile, Universidad de Los Andes Pág. 30
FINANZAS:
Opinión de los analistas respecto de la información proporcionada por las IFRS Paper área Contabilidad y Finanzas, presentado en la quinta versión del Congreso de Polonia 2017 Facultad de Economía y Negocios Universidad Finis Terrae Pág. 98
Impacto de las filiales en la rentabilidad sobre los activos de empresas consolidadas en el año 2015 Paper área Financiera Facultad de Administración y Economía Universidad Tecnológica Metropolitana Pág. 124
Portfolio performance under reference-day risk Paper presentado en Investment Analysts Journal Facultad de Economía y Negocios Universidad de Chile, Departamento de Administración Pág. 137
Una estrategia para gestionar el capital de trabajo de la MIPyME Paper presentado CLADEA 2017 Facultad de Economía y Negocios Campus Los Leones Universidad Andrés Bello, Escuela de Administración Pág. 157
EMPRESA:
Análisis de problemas que enfrentan emprendedores de MIPyMEs del centro de Copiapó Facultad de Ingeniería, Departamento Ingeniería Comercial Universidad de Atacama Pág. 174
8
MARKETING:
Olvídese del ciclo de vida del producto y focalícese en el ciclo de vida del cliente Artículo de la Revista Mirada FEN Facultad de Economía y Negocios Universidad de Chile, Departamento de Administración Pág. 195
Customer equity: el valor está en el cliente Artículo de la Revista Mirada FEN Facultad de Economía y Negocios Universidad de Chile, Departamento de Administración Pág. 200
TECNOLOGÍA Y NEGOCIOS:
Tecnologías de información y comunicaciones (TICs) e innovación Artículo de la Revista Mirada FEN Facultad de Economía y Negocios Universidad de Chile, Departamento de Administración Pág. 205
PROGRAMA DEL CONGRESO Pág. 243
9
IMPACTO DE LOS OBSTÁCULOS AL CONOCIMIENTO EN LA
INNOVACIÓN DE LAS EMPRESAS CHILENAS1
Roberto Álvarez Mario Canales
[email protected] [email protected]
Universidad de Chile Banco Central de Chile
Resumen
La mayoría de la literatura previa sobre obstáculos a la innovación se ha centrado
en el impacto de las restricciones financieras. En este trabajo, utilizando la 8va
Encuesta de Innovación en Chile, se analiza el efecto de los obstáculos
relacionados al conocimiento sobre la probabilidad de innovar. Los resultados
indican que la escasez de conocimiento, una vez que se considera su
endogeneidad, reduce la probabilidad de innovar de las empresas chilenas. Se
encuentra que este efecto negativo se da tanto para la innovación tecnológica,
como para la no tecnológica. Esto tiene implicancias importantes para el diseño de
políticas públicas que no sólo deben enfocarse en los problemas de
financiamiento, sino también en la disponibilidad de recursos humanos y la
información sobre mercados y nuevas tecnologías.
1. Introducción
La innovación es uno de los factores más relevantes para la productividad y el
crecimiento económico (Schumpeter, 1934), no sólo para países desarrollados
sino también para los países en desarrollo (Crespi & Zúñiga, 2012; Lee & Kang,
2007). Es por ello que estudiar los factores que inhiben la innovación en las
empresas es importante, ya que permitiría enfocar políticas a mitigar el impacto de
estos factores y así aumentar los niveles de innovación y productividad de los
países. Si bien el fenómeno de la innovación ha sido bastante estudiado, tanto a
1 Este trabajo es parte de la Tesis de Magister en Análisis Económico de la Universidad de Chile.
Agradecemos los comentarios y sugerencias de Álvaro García, Jaime Ruiz-Tagle, Rodrigo Wagner, Juan Pablo Torres y de los asistentes a los seminarios de investigación de la Facultad de Economía y Negocios de la Universidad de Chile.
10
nivel agregado como a nivel de firmas, la relevancia e impacto de los obstáculos
es un tema relativamente reciente.
Esta literatura, sin embargo, se ha centrado principalmente en los efectos de los
obstáculos financieros (Schneider et al., 2010; Blanchard et al., 2013; Pellegrino &
Savona, 2017), incluyendo trabajos que han estimado efectos heterogéneos por
sector productivo (Hottenrott & Peters, 2012) y por tamaño de empresas y tipo de
innovación (Álvarez & Crespi, 2015).
Uno de los aportes más relevantes en esta área han sido los trabajos de Savignac
(2008) y Pellegrino y Savona (2017), quienes han identificado los problemas
asociados al sesgo de selección y endogeneidad cuando se intenta estimar el
impacto causal de los obstáculos sobre la innovación.
Cuando se incluye a todas las firmas en la estimación, se encuentra una relación
positiva entre obstáculo e innovación. Esto se explica porque se incluyen firmas
que no innovan y declaran no enfrentar ningún obstáculo. Ambos trabajos
muestran que restringiendo la muestra a firmas potencialmente innovadoras, las
estimaciones revelan una relación negativa entre obstáculo e innovación.
Además, Savignac (2008) muestra que, luego de corregir por endogeneidad, la
relación e hace incluso más negativa.
En los últimos años se han ido desarrollando estudios que intentan dilucidar la
importancia de otros obstáculos, ya sean obstáculos de conocimiento, de mercado
o de políticas (Pellegrino & Savona, 2017; Blanchard et al., 2013; D’Este,
Rentocchini & Vega-Jurado, 2014). Por ejemplo, Pellegrino & Savona (2017)
utilizan datos para el Reino Unido y encuentran que factores relacionados a la
demanda y al mercado de las innovaciones son tan importantes como factores
financieros para disminuir la innovación. Blanchard, et al. (2013) distinguen entre
obstáculos financieros y no financieros y encuentran que ambos juegan un papel
significativo en disminuir la innovación de las empresas; D’Este, et al. (2014) se
centran en estudiar la complementariedad del capital humano y los obstáculos a la
innovación, tanto financieros como no financieros. En el caso de Chile, Bravo
11
(2016) explores the role of demand obstacles and finds that these reduce the
likelihood of undertaking innovation activities by 17%.
Esta investigación contribuye a la literatura de obstáculos a la innovación,
analizando el impacto de los obstáculos de conocimiento sobre la innovación en
las empresas. Para ello, se utilizan datos de la Octava Encuesta de Innovación en
Empresas en Chile, que cuenta con información sobre las características
generales de las empresas y sobre las actividades de innovación. El motivo de
focalizar el análisis de los obstáculos de conocimiento, y no otros obstáculos, es
que en primer lugar éste no ha sido estudiado por sí solo. Una contribución
adicional es generar evidencia empírica en una economía emergente en un área
donde los trabajos son mayoritariamente realizados en países desarrollados.
El presente trabajo continúa en la sección II con el marco teórico de la
investigación. En la sección III se presentan los datos. Luego, en la sección IV se
revisa la estrategia empírica. En la sección V, se muestran los resultados. En la
sección VI, se resumen las conclusiones.
II. Marco Teórico
En esta investigación se analiza el efecto que tienen los obstáculos de
conocimiento sobre la innovación en las firmas, por lo tanto necesitamos entender
cómo el conocimiento puede afectar las decisiones de innovación. Una primera
aproximación considera la firma como un ente creador de conocimiento, donde la
habilidad de crear y utilizar dicho conocimiento es la fuente más importante de
ventajas competitivas sostenibles para las firmas. Esta visión de la firma es
conocida en la literatura como knowledge-based view (Nonaka, 1994; Grant, 1996;
Nonaka et al., 2000). Según esta visión, el manejo del conocimiento es tan
importante como el manejo de otros aspectos como el marketing y las finanzas
(Leonard-Barton, 1995). El conocimiento se considera uno de los recursos más
relevantes y que por ende debe ser correctamente administrado para obtener su
máximo potencial.
12
El conocimiento se relaciona positivamente con la innovación en las empresas. Sin
embargo, afecta a las firmas de manera diferente. Si consideramos a la innovación
como un proceso donde intervienen muchos factores, el conocimiento es un
insumo para la innovación, pero es un factor que puede ser más relevante en
ciertos casos que en otros. En particular, es esperable que el efecto que tenga el
conocimiento sobre la innovación dependa del proyecto que está realizando la
firma. Por ejemplo, si las innovaciones tecnológicas son más intensivas en
conocimiento que las innovaciones no tecnológicas, entonces el impacto del
conocimiento sería mayor sobre la probabilidad de introducir innovaciones
tecnológicas. Lo mismo si se refiere a innovaciones más radicales o disruptivas.
Además se debe tener en cuenta que otros factores que afectan la innovación,
como por ejemplo el tamaño de una firma y/o si es exportadora o no, pueden
capturar el efecto del conocimiento. Si bien existe evidencia empírica que respalda
el hecho de que firmas más grandes y/o exportadoras innoven más, esto puede
deberse a que se encuentran menos restringidas, ya sea en términos de
conocimiento o financiamiento. Por ello, considerar estas barreras es importante
para entender el efecto de otros determinantes de la innovación.
En términos simples, suponga que la decisión de realizar un cierto tipo de
innovación j está dado por la comparación entre la inversión (I) que se necesita
para llevar a cabo la innovación y el valor presente neto de los beneficios
esperados (π) de tal innovación. La inversión se realiza sólo si:
πj (X, C) ≥ Ij (C) (1)
En este caso, siguiendo la discusión anterior, el grado de conocimiento (C) puede
aumentar los beneficios de la innovación, ya sea por un mayor conocimiento de
mercado de los nuevos productos o por acceso a mejores tecnologías, o porque
reduce los costos de la inversión. Los beneficios son también afectados por otras
características de las firmas denotadas por X, que reflejan, entre otras cosas, su
acceso a los mercados internacionales, tamaño y propiedad.
13
Esta simple formulación del problema de decisión de las firmas permite ilustrar la
endogeneidad de C y el tipo de proyectos de innovación que realiza la firma.
Asuma que la firma tiene j=1….a J proyectos disponibles, que requieren un nivel
de conocimiento Cj. En tal caso, simplificando al caso de elegir un proyecto, una
firma que maximiza beneficios escogerá el proyecto j tal que:
πj (X, Cj) ≥ I (Cj) (2)
y Δj > Δk para todo k≠j (3)
con Δj = πj (X, Cj) - I (Cj)
De (2) debiera ser claro que j es un proyecto rentable para un cierto nivel de
conocimiento que depende de j, que por lo tanto es endógeno y debiera ser
considerado en la estimación. De (3) se infiere que j se realiza si es el proyecto
más rentable que tiene la empresa. Similarmente, se pude tener empresas que,
dado su conjunto de proyectos disponibles, decidan no innovar. Este es el caso de
empresas en las que:
πj (X, Cj) < I (Cj) para todo j.
Este es el tipo de empresas que al no innovar, generalmente declaran que no
enfrentan barreras relevantes para la innovación.
III. Datos
Los datos a utilizar corresponden a los de la Octava Encuesta de Innovación en
Empresas que desarrolla el Ministerio de Economía en conjunto con el Instituto
Nacional de Estadísticas de Chile. Esta encuesta cuenta con información sobre el
tipo de innovación (proceso, producto, organizacional o de marketing), sus efectos,
la percepción que tiene la empresa de ciertas barreras u obstáculos, entre otros,
para los años 2011 y 2012. Además, el diseño del formulario y la metodología de
aplicación de esta encuesta siguen los lineamientos generales planteados por la
OCDE en el Manual de Oslo (2005), y que la siguen EUROSTAT con la
14
Community Innovation Survey (CIS) para el desarrollo de sus encuestas de
innovación.
Si bien lo ideal sería poder contar con un panel de datos que permita conocer la
evolución del proceso de innovación en las firmas, esto no es posible puesto que a
pesar de que existen ocho rondas de la Encuesta de Innovación en Empresas en
Chile, no se puede acceder a un registro que permita identificar a las empresas a
lo largo de las diferentes encuestas. Por ello, se utilizan datos de corte transversal.
Estos datos fueron complementados con datos sobre el sistema educativo chileno
del año 2012, donde se utilizó información sobre la matrícula total en dicho año
para ciertas carreras de interés. Esta información es de carácter regional y se
utilizó para construir variables que permitan caracterizar la oferta disponible de
trabajadores calificados. Como quedará luego más claro, estas variables son
necesarias como instrumentos que permiten intentar solucionar el problema de
endogeneidad de los obstáculos de conocimiento.
En relación a los obstáculos a la innovación, la Encuesta de Innovación indaga por
la relevancia percibida de distintos factores que obstaculizan o desincentivan la
innovación. La empresa indica el grado que percibe de cada factor de acuerdo a la
siguiente escala: (i) no es un obstáculo, (ii) bajo, (iii), medio y (iv) alto. Los factores
se agrupan en 4 categorías: obstáculos financieros, obstáculos de conocimiento,
obstáculos de mercado y otros obstáculos. En este caso, nos centramos en los
obstáculos de conocimiento.
Los obstáculos de conocimiento y su percepción corresponden a cuatro factores2:
• Falta de personal calificado
• Falta de información sobre la tecnología
• Falta de información sobre los mercados
2 Si bien la variable consiste en preguntarle a los gerentes de las empresas su percepción sobre
cada uno de estos factores, los resultados son similares si en lugar de la variable aquí descrita se utiliza la variable estandarizada.
15
• Dificultad en encontrar cooperación para la innovación
La falta de capital calificado es un obstáculo a la innovación puesto que para
desarrollar innovaciones se necesitan de un alto grado de conocimientos y
habilidades en el personal. En este sentido, si la firma no tiene el personal
adecuado, tanto en términos de conocimientos como de habilidades, se dificulta el
proceso de innovación o incluso puede que finalice y desista su proyecto.
La falta de información sobre la tecnología se relaciona con los obstáculos de
conocimiento ya que son problemas para identificar las tecnologías disponibles
para innovar. Esto se puede deber a la falta de personal capaz de adquirir esta
información, o bien a que dicha información no está disponible o es muy costosa
de adquirir. En cualquiera de ambos casos corresponde a problemas de
conocimiento por parte de la firma.
De la misma forma la falta de información sobre el mercado se asocia a los
obstáculos de conocimiento. Este factor mide la información y conocimientos que
posee la firma sobre el mercado, sea tanto de conocimientos sobre la competencia
como información o predicciones sobre posibles innovaciones que desee llevar a
cabo.
La dificultad en encontrar otros agentes (empresas, centros de investigación,
universidades, etc.) para cooperar e innovar se asocia a los obstáculos de
conocimiento, ya que mide las fuentes externas de la cuales se pueden absorber y
aprender nuevas tecnologías y productos. De esta forma, si la firma percibe que
es difícil encontrar socios para desarrollar innovaciones, puede ser que dicha
dificultad radique en que la empresa necesita más conocimientos o capacidades
de las que posee para llevar a cabo la innovación, lo que denota una escasez de
conocimiento.
Se define la variable “obstáculos de conocimiento” como una variable binaria que
toma el valor 1 si alguno de los factores antes mencionados es percibido como
severo, mientras que toma valor 0 en caso contrario. En la Tabla 1 se presenta
estadística descriptiva respecto a esta variable, donde vemos que un 52% de las
16
firmas menciona percibir algún factor asociado al conocimiento como severo para
restringir la innovación3. En comparación con otros obstáculos, su incidencia es
similar a los de mercado, relativamente menor que los obstáculos financieros
(62%) y superior a aquellos asociados a aspectos regulatorios (38%). Las
variables de innovación también se definen como una variable binaria, que toma el
valor 1 si la firma declara haber introducido algún tipo de innovación
durante los dos últimos años, sea esta de producto, proceso, organizacional o de
marketing.
La estadística descriptiva en la Tabla 1 indica que un 23% de las firmas realizó
algún tipo de innovación. Además, se aprecia que un 18% de las firmas realizó
innovaciones tecnológicas (de producto o proceso), mientras que un 16% realizó
innovaciones no tecnológicas (organizacional o de marketing).
IV. Estrategia Empírica
Como esta estrategia utiliza una medida directa (percepción de los obstáculos) del
conocimiento sobre la innovación, se tomaron en cuenta los problemas que se
generan en dichas estimaciones al tomar todas las firmas de la muestra. En este
sentido, siguiendo lo planteado por Savignac (2008), para evitar el sesgo asociado
a firmas que no innovan y no declaran percibir obstáculos, la muestra es
restringida a firmas potencialmente innovadoras. Estas se definen como el grupo
de firmas que han realizado alguna innovación o declaran que han enfrentado
algún obstáculo para innovar. De esta forma, las firmas que no tienen interés en
innovar son eliminadas de las estimaciones para evitar el sesgo de selección
identificado en esta literatura (Savignac, 2008; Blanchard, et al., 2013; Mancusi &
Vezzulli, 2010).
3 Estimaciones de cada factor por separado lleva a conclusiones similares respecto a su
efecto negativo en innovación. Como están altamente correlacionados, incluirlos conjuntamente reduce la significancia de alguno de ellos y se hace difícil identificar su impacto por separado.
17
Para la estimación, se modela una variable latente I para la firma i en el sector j y
localizada en la región r, como función de los determinantes tradicionales de la
innovación (X) y en la existencia de los obstáculos de conocimiento (C). Esto es:
En los datos se observa si efectivamente la firma innovó o no, por lo que se define
la variable binaria:
De esta forma, el modelo estimado corresponde a un Probit, donde la propensión
a innovar es explicada por determinantes de la innovación (X) y por la existencia
de Obstáculos de conocimiento (C).
Iijr es una variable dummy que indica si la firma i en la industria j en la región r
innovó. Sj son efectos fijos por industria y Sr son efectos fijos por región. A pesar
que la literatura previa encuentra que restringir la muestra a las firmas
potencialmente innovadoras contribuye a solucionar el sesgo en la estimación del
parámetro δ, pasando de positivo a negativo, de todas formas puede haber
razones para que sigan existiendo problemas de endogeneidad. En primer lugar,
la decisión de innovar y la severidad de la barrera de conocimiento pueden estar
ambas afectadas por elementos heterogéneos no observables comunes, tales
como la incertidumbre respecto a la dificultad del proyecto y a las capacidades de
los empleados de resolver los problemas que aparezcan. En segundo lugar, la
decisión de innovar y la severidad de los obstáculos de conocimiento pueden ser
determinadas simultáneamente, ya que a medida que se innova es que los
obstáculos dificultan el proceso.
18
Por lo tanto, además de restringir la muestra, se utiliza un modelo Probit Bivariado
simultáneo4, donde la existencia de obstáculos de conocimiento afecta la
probabilidad de innovar y el comportamiento innovador induce la severidad del
obstáculo de conocimiento.
Para estimar este modelo se necesita una restricción de exclusión. En este caso,
se asume que los obstáculos de conocimiento afectan a la innovación, pero que
luego de controlar por los determinantes conocimiento, la innovación no afecta la
percepción de este obstáculo. Es decir, al incluir variables que afectan C pero no I,
se puede suponer que δ2 = 0.
Además de los obstáculos, basado en estudios previos similares, se incluyen
como determinantes de la innovación las siguientes características de las
empresas:
• Edad: Se considera esta variable para analizar si las firmas más antiguas
innoven más o menos que las firmas más nuevas.
Exportación: Si la firma exporta o no, porque el acceso a los mercados
internacionales puede significar un aumento en la probabilidad de innovar ya que
aumenta el grado de competencia (Harris & Moffat, 2011)
• Unidad I+D: Si la firma tiene una unidad formal o informal de Investigación y
Desarrollo o bien gasta en I+D. Esto porque denota que la firma tiene las
capacidades para innovar, independiente de si lo hace efectivamente o no. No
todas las firmas que poseen departamento de I+D innovan, de hecho un 21% de
4 Una alternativa es usar un Probit con Variables Instrumentales (IV Probit), pero requiere que la
variable endógena sea continua. En tal caso, utilizamos el promedio de la percepción de cada factor que compone los obstáculos de conocimiento. Los resultados son generalmente similares respecto a su efecto negativo en innovación, aunque su significancia es menor.
19
las empresas que poseen o invierten en I+D no innovaron durante
el periodo.
• Empleados Calificados: Calidad del capital humano de la empresa medido como
la proporción de mano de obra calificada. Se incluye esta variable ya que una
mano de obra más preparada implica que la firma posee mayor capacidad de
aprender y quizás de innovar en nuevos procesos o productos.
• Cantidad de Empleados: Tamaño de la empresa medido como el logaritmo de la
cantidad de empleados. Dicha variable se incluye en el modelo porque tal como ha
enfatizado Schumpeter (1942), las firmas más grandes pueden tender a innovar
más que las firmas pequeñas ya que pueden aprovechar sus economías de escala
y otras características particulares. En la Tabla 2 se encuentra la estadística
descriptiva respecto a estas variables. Las primeras dos columnas de la tabla
muestra estadística respecto a todas las firmas. En este caso, la edad promedio
de las firmas es 14.9 años, el 5% de las firmas exporta, un 1,5% de las firmas
posee un departamento de I+D, la proporción promedio de empleados calificados
es 25% y el promedio del logaritmo trabajadores es 2.04.
En las dos últimas columnas de la Tabla 2 se muestra la estadística para las
firmas potencialmente innovadoras. Se aprecia que las medias de las variables
son muy similares entre ambos grupos. En cambio, la Tabla 1 revela que los
obstáculos son más relevantes para este tipo de empresas que para la muestra
total.
Otras variables utilizadas en la estimación son aquellas utilizadas como restricción
de exclusión y permiten la identificación causal del modelo. Estas variables deben
estar correlacionadas con la percepción del obstáculo de conocimiento por parte
de la firma, pero no deben correlacionarse con la innovación a través de otros
canales. Para esto, se utilizan 2 variables de relacionadas al grado de
conocimiento al que puede acceder o tiene acceso la firma.
La primera variable intenta capturar el efecto de aumentos en la oferta regional de
profesionales vinculados a la generación de conocimiento científico y tecnológico
20
(Prof). Para esto, se considera la matrícula universitaria de pregrado5 del año 2012
en las carreras de Ciencias y de Tecnología6 de cada región y se multiplica por la
proporción de empleados que tienen estudios universitarios o de postgrado en
cada firma. Esta variable se basa en la interacción entre la oferta de mano de obra
calificada de la región (αr), y la demanda potencial de mano de obra calificada de
la firma (δijr). Se asume que la oferta de profesionales es exógena, ya que una
firma no puede incidir en la oferta de mano de obra calificada de una región, y que
las firmas se ven afectadas de distinta forma en función de su necesidad de mano
de obra calificada.
En la ecuación de obstáculos se incluye una variable relativa al grado de
información que posee la firma. Se define como una variable binaria igual a 1 si la
firma conoce instrumentos de fomento público (Conocimiento Público). Se asume
que esta variable se correlaciona con el conocimiento, ya que mide información
relevante que posee la firma para innovar, pero que no es un determinante de la
innovación. De hecho, la pregunta es si conoce este tipo de instrumentos, no si ha
aplicado a ellos o los ha utilizado. Para corroborar este supuesto, se probó esta
variable como determinante de la innovación, encontrándose que no es una
variable significativa.
Para controlar por el potencial impacto de otros factores asociados a la falta de
conocimiento, se incluyen dos variables adicionales en esta ecuación. La primera
es una variable que mide la propensión a cooperar en la industria y región
(Cooperación SR). A mayor propensión a cooperar, se espera que las firmas
enfrenten menores obstáculos de conocimiento. Se construye como el porcentaje
de firmas que cooperaron en cada industria/región. La segunda, captura los
factores comunes que constituyen obstáculos al conocimiento de las firmas. Se
5 Una mejor medida sería el número de egresados, pero no está disponible. En todo caso ambas
debieran estar altamente correlacionadas entre regiones, salvo haya diferencias regionales muy marcadas entre matrícula y egreso. 6 Las carreras de Ciencia son programas como Bachillerato en Ciencias y similares; Biología;
Bioquímica; Física, astronomía y similares; Geología; Ingeniería estadística, estadística y similares; Licenciatura en Ciencias y similares, Licenciatura en matemáticas; Química y carreras similares; y Técnico en química, análisis químico y similares. En tanto que las de tecnología son Bioingeniería; Cartografía; Construcción Civil; Ingenierías e Ingenierías Civiles.
21
calcula como la proporción de firmas en la misma industria/región que declaran
como severos a los obstáculos de conocimiento (Conocimiento SR).
V. Resultados
La Tabla 3 presenta los resultados de las estimaciones principales. Las columnas
1 y 2 corresponden a estimaciones con el total de firmas de la base, mientras que
las columnas 3 y 4 solo consideran a las firmas potencialmente innovadoras. Las
columnas 1, 2 y 3 corresponden a los efectos marginales de un modelo Probit y la
columna 4 a un modelo Probit Bivariado.
En la columna (1) no se incluye la variable de obstáculo, pero se incluye en la
columna (2). Al comparar ambos resultados, correspondiente a la totalidad de las
firmas, se puede apreciar que la inclusión de los Obstáculos de Conocimiento no
afecta significativamente los otros determinantes de la innovación. En ambas
estimaciones, tanto si la firma exporta como si posee Unidad de I+D y el número
de empleados afectan positiva y significativamente la propensión a innovar.
Es importante destacar que al incluir los obstáculos de conocimiento en la
estimación con todas las firmas, el coeficiente de esta variable es positivo, aunque
no significativo. Esto es consistente con lo discutido anteriormente relativo al
sesgo de selección en este tipo de estimaciones al incluir a todas las firmas. En
las columnas 3 y 4 se corrige por este sesgo. La diferencia entre ambas columnas
es que la columna 3 corresponde a los efectos marginales de una estimación
Probit, mientras que la columna 4 son los coeficientes de un modelo Probit
Bivariado. Si comparamos la columna 2 con la 3, vemos que al restringir la
muestra el coeficiente de los Obstáculos de Conocimiento cambia al signo
esperado: en este caso pasa a ser negativo. Al mismo tiempo, los determinantes
de la innovación no sufren cambios mayores y los coeficientes se mantienen en
torno a valores similares.
22
La columna 4 muestra un efecto negativo y estadísticamente significativo de los
obstáculos de conocimiento, lo que indica que si se corrige tanto por el sesgo de
selección como por endogeneidad, se encuentra que las firmas que presentan
más obstáculos de conocimiento tienden a innovar menos. En esta columna, en
términos de significancia y signo se mantienen los resultados referidos a los otros
determinantes de la innovación. El efecto marginal es relativamente importante,
indicando que una alta incidencia de obstáculos al conocimiento reduce la
probabilidad de innovar en cerca de un 26%.
La estimación del Probit bivariado permite también analizar variables que afectan
la severidad de los obstáculos de conocimiento. Los resultados indican que la
información sobre instrumentos públicos y la disponibilidad de profesionales en
ciencia y tecnología reducen la severidad de este obstáculo. El resto de las
variables, en particular la propensión a cooperar y la severidad de los obstáculos
en firmas similares no afectan la probabilidad que los obstáculos de conocimiento
sean relevantes para las firmas.
Efectos por Tipo de Innovación
En esta sección, se presentan y discuten los resultados según el tipo de
innovación que realiza la firma. Las innovaciones se pueden agrupar en dos
grandes grupos: Innovaciones Tecnológicas e Innovaciones No Tecnológicas. Las
Innovaciones Tecnológicas se refieren a innovaciones de proceso o producto que
haya realizado la firma, mientras que las No Tecnológicas indican si la firma
introdujo innovaciones organizacionales o de marketing.
El motivo de estudiar diferencias en cómo afecta el conocimiento a cada tipo de
innovación es que estas innovaciones pueden ser de naturaleza distinta. Tal como
sugiere Toner (2011), cada tipo de innovación requiere de insumos distintos, lo
que repercute finalmente en los conocimientos necesarios y por ende
probablemente en los efectos negativos de este obstáculo sobre la innovación de
las empresas. De esta forma, es de esperar que el conocimiento afecte a todos los
23
tipos de innovación, pero su relevancia podría ser distinta. Es difícil, sin embargo,
indicar a priori si los obstáculos de conocimiento son más importante en
innovaciones tecnológicas que no tecnológicas.
Además, con el objetivo de analizar si estas barreras han afectado mayormente la
probabilidad de introducir innovaciones más novedosas, hacemos uso de la
información de si las innovaciones de producto y procesos son consideradas como
nuevas para el mercado y no sólo para la empresa. Esto es lo que calificamos
como innovación tecnológica novedosa.
En la Tabla 4 se presentan los resultados considerando los tres tipos de
innovación: tecnológica, no tecnología y tecnológica novedosa. Los resultados
respecto a los obstáculos para la probabilidad de innovar son similares para
ambos tipos de innovaciones. Se encuentra que el efecto de los obstáculos de
conocimiento es negativo y estadísticamente significativo para la probabilidad de
introducir innovaciones tecnológicas y no tecnológicas. Más aún, para ambas, el
impacto es una reducción en torno al 27%.
Respecto a la novedad de la innovación, aunque también se encuentra un efecto
negativo en torno al 11%, éste es no significativo. Esto indica que el bajo grado de
novedad de las innovaciones de las empresas chilenas responde a otro tipo de
problemas y no necesariamente a los obstáculos de conocimiento que ellas
mismas declaran. Esto puede ser una pregunta relevante para futuras
investigaciones respecto a qué factores limitan la introducción de innovaciones
más novedosas.
VI. Conclusiones
En esta investigación, se ha analizado cómo los obstáculos de conocimiento
afectan la innovación de las firmas chilenas. Consistente con la evidencia
internacional que utiliza obstáculos auto-reportados en las encuestas de
innovación, nuestro trabajo confirma que es necesario utilizar una muestra
adecuada y corregir por la endogeneidad de los obstáculos para estimar
24
correctamente su efecto causal de estos obstáculos. En particular, se restringe la
muestra a las firmas potencialmente innovadoras y se utiliza un Probit bivariado
con restricciones de exclusión, las que corresponden a variables asociadas con la
disponibilidad de personal calificado y el conocimiento de programas públicos.
Los resultados indican que los obstáculos al conocimiento afectan negativamente
la probabilidad de innovar. Este efecto se encuentra tanto para las innovaciones
tecnológicas como no tecnológicas. En términos cuantitativos su efecto es
relevante. En ausencia de estos obstáculos, la probabilidad de innovar se
incrementaría en un 26%. Este efecto es comparable al impacto de las
restricciones financieras encontrado por Álvarez y Crespi (2015), las que de
eliminarse, incrementarían la probabilidad de innovar en un 32%. También se
estudia el efecto sobre la novedad de la innovación, y se encuentra que el impacto
de los obstáculos de conocimiento no es significativo. Esto indica que el bajo
grado de novedad de las innovaciones de las empresas chilenas puede responder
a otro tipo de problemas. Futuras investigaciones podrían indagar en más detalle
respecto a qué factores limitan la introducción de innovaciones más novedosas y
cómo su impacto podría diferir de acuerdo a otras características de las empresas
como tamaño y localización. Nuestros resultados tienen implicancias de política
importantes considerando que muchos de los programas públicos en innovación
son basados en la existencia de restricciones financieras. Esta evidencia, junto a
otra reciente a nivel mundial, indica que es necesario profundizar en la
implementación de programas que afecten más directamente a otros obstáculos a
la innovación.
En relación a los determinantes de estos obstáculos, se encuentra que mayores
niveles generales de información y la oferta de capital humano especializado
contribuyen a que estas barreras sean percibidas como menos severas. En este
sentido, se requiere analizar cómo las firmas reciben y adquieren información, y de
qué manera las políticas públicas podrían contribuir a mejorar en esa dimensión.
También, en lo relativo al capital humano, nuestros resultados indican que
25
programas de inserción de profesionales en la empresa podrían ayudar en este
sentido.
Referencias:
Aghion, P., Akcigit, U., & Bergaud, A. (2015). Innovation and Top Income Inequality. NBER
Working Papers.
Álvarez, R., & Crespi, G. (2015). Heterogeneous effects of financial constraints on
innovation: Evidence from Chile. Science and Public Policy, 42(5), 1-14.
Amara, N., D'Este, P., Landry, R., & Doloreux, D. (2016). Impacts of obstacles on innovation
patterns in KIBS firms. Journal of Business Research, 69(10), 4065-4073.
Belitz, H., & Lejpras, A. (2016). Financing patterns of R&D in small and medium-sized
enterprises and the perception of innovation barriers in Germany. Science and
Public Policy, 43(2), 245-261.
Blanchard, P. H., Musolesi, A., & Sevestre, P. (2013). Where there is a will, there is a way?
Assessing the impact of obstacles to innovation. Industrial and Corporate Change,
22(3), 679-710.
Canepa, A., & Stoneman, P. (2008). Financial constraints to innovation in the UK: evidence
from CIS2 and CIS3. Oxford Economic Papers, 60(4), 711-730.
Coad, A., Savona, M., & Pellegrino, G. (2016). Barriers to innovation and firm productivity.
Economics of Innovation and New Technology, 25(3), 321-334.
Coad, Pellegrino, & Savona. (2016). Barriers to innovation and firm productivity. Economics
of Innovation and New Technology, 25(3), 321-334.
Crespi, G., & Zuñiga, P. (2012). Innovation and productivity; Evidence from six Latin
American countries. World Development, 40(2), 273-290.
D´Este, P., Rentocchini, F., & Vega-Jurado, J. (2014). The role of human capital in lowering
the barriers to engaging in innovation: Evidence from the Spanish innovation survey.
Industry and Innovation, 21(1), 1-19.
D'Este, P., Iammarino, S., Savona, M., & von Tuzelmann, N. (2012). What hampers
innovation? Revealed barriers versus deterring barriers. Research Policy, 41(2), 482-
488.
Galia, F., & Legros, D. (2012). Are innovation and R&D the only sources of firms' knowledge
that increase productivity? Journal of Productivity Analysis, 38(2), 167-181.
Galia, F., Mancini, S., & V, M. (2012). Obstacles to innovation: what hampers innovation in
France and Italy? DRUID Society Conference 2012.
Grant, R. (1996). Toward a knowledge-based theory of the firm. Strategic Managment
Journal, 17(2), 109-122.
26
Harris, R., & Moffat, J. (2011). R&D, innovation and exporting. SERC Discussion Paper.
Hottenrott, H., & Peters, B. (2012). Innovative Capability and Financing constraints for
innovation: More money, more innovation? The Review of Economics and Statistics,
94(4), 1126-1142.
Iammarino, S., Sanna-Randaccio, F., & Savona, M. (2009). The perception of obstacles to
innovation: Multinational and domestic firms in Italy. Revue d'économie
industrielle (125), 75-104.
Lee, K., & Kang, M. (2007). Innovation types and productivity growth; Evidence from Korean
manufacturing firms. Global Economic Review, 36(4), 343-359.
Leonard-Barton, D. (1995). Wellsprings of knowledge: Biulding and sustaining the sources of
innovation.
Mancusi, M., & Vezzulli, A. (2010). R&D, innovation and liquidity constraint. Knowledge,
Internationalization and Technology Studies.
Mohnen, P., & Röller, L. (2005). Complementarities in Innovation Policy. European Economic
Review, 49(6), 1431-1450.
Mohnen, P., Palm, F., Van Der Loeff, S., & Tiwari, A. (2008). Financial constraints and other
obstacles: are the a threat to innovation activity? De Economist, 156(2), 201-214.
Nonaka, I. (1994). A dynamic theory of organizational knowledge creation. Organization
Science, 5(1), 14-37.
Nonaka, I., Toyama, R., & Nagata, A. (2000). A firm as a knowledge-creating entity: a new
perspective on the theory of the firm. Industrial and Corporate Change, 9(1), 1-20.
Pellegrino, G. & M. Savona (2017). No money, no honey? Financial versus knowledge and
demand constraints on innovation. Research Policy, 46 (2). pp. 510-521
Savignac, F. (2008). The impact of financial constraints on innovation: What can be learned
from a direct measure? Economics of Innovation and New Technology, 17(6), 553-
569.
Schneider, Gunther, & Branderburg. (2010). Innovation and skills from a sectoral
perspective: A linked employer-employee analysis. Economics of Innovation and
New Technology, 19(2), 185-202.
Schumpeter. (1942). Capitalism, Socialism and Democracy.
Segarra-Blasco, A., Teruel, M., & García-Quevedo, J. (2008). Barriers to Innovation and
Public Policy in Catalonia. International entepreneurship and managment journal,
4(4), 431-451.
Toner, P. (2011). Workforce skills and innovation: An overview of major themes in the
literature. OECD Education Working Papers, 55.
Van Uden, A., Knoben, J., & Vermeulen, P. (2016). Human capital and innovation in SubSaharian
countries: A firm level study. Innovation, 1-22.
27
28
29
30
BEYOND TRANSPORT TIME: A REVIEW OF TIME USE MODELING
Sergio Jara-Díaz Jorge Rosales-Salas
Universidad de Chile Universidad de Los Andes
ABSTRACT
Time allocation literature coming from all disciplines is reviewed and organized by
means of a conceptual classification. A brief account of the origins and evolution of
the modeling perspectives on time use research is presented including activity
types and overall time use models. The lack of integration across disciplines is
identified as a major limitation.
1. Introduction
Time use studies have been justified primarily by the need to understand how
people make decisions about their activities that, by definition, occupy the total
time available. The temporal limitation induces the existence of options, so that the
decision on the use of time involves an implied and relative valuation of the time
allocated to various activities; therefore, use and value are inextricably linked.
The importance of studying time allocation has many dimensions. Time use data
can be used to improve the evaluation and creation of public policies to encourage
some behaviors (e.g. work-leisure balance) and discourage others (e.g. physical
inactivity). It can also be used to assess the characteristics of the allocation of time
within different groups, detecting trends and their evolution. Many analyzes can be
performed with time use data, ranging from purely descriptive studies to
econometric modeling with thorough theoretical foundations from diverse
disciplines and requirements of information involving different levels of detail.
Contributions to conceptual frameworks and theoretical bases in time use modeling
31
can be found within different areas, such as leisure, transport, household
production, among others. In the case of transport studies, the appraisal of
improvements in operations or infrastructure – involving a significant amount of
resources – makes it necessary to assign a value to the so-called travel time
savings, which has two components: the (dis)pleasure of travel itself and the
possibility of substituting travel time for other desired (more rewarding or
pleasurable) activities. As transport related decisions at an individual level are
unavoidably linked with the overall time allocation problem, travel models are
implicitly or explicitly related with time use modeling (Jara-Díaz, 2007), and with the
values of leisure and work. As we will show later, this has lead very naturally to
extend the focus toward comprehensive frameworks: the activity based analysis
(e.g. Kitamura, 1984; Bhat and Koppelman, 1999a,b) and the expanded
microeconomic consumer theory, evolving from an emphasis in transport time
(Jara-Díaz and Guevara, 2003) toward overall time use models such as Jara-Díaz
et al. (2008)
As we will argue later, research in time-related topics has developed showing little
interaction across disciplines, due in part to issues such as the heterogeneous
nature of the research approaches and disciplinary backgrounds. We believe that
capturing those contributions in a systematic way would facilitate the identification
of elements that can help with the construction of a richer basis for time use
modeling from different viewpoints such as the formulation, the explanatory power
and interpretation of current models.
The purpose of this paper is to understand the contributions to time use modeling
from all angles, studying the possible perspectives from which time use research
can be viewed and developing what we believe to be an organized and complete
way of classifying time use literature, something not accomplished so far with this
level of detail. The driving idea is to present what each discipline does and which
modeling methods each one uses in order to prompt the individual disciplines to
include insights and contributions from other areas into their own work.
In Section 2 we give the reader a brief description of the origins and evolution of
32
time allocation literature through different approaches, offering a comprehensive
conceptual classification. In Section 3 we examine the modeling literature
through the eyes of the particular activity being studied. In Section 4 we present a
description of models focused on studying time as an overall phenomenon, their
evolution and limitations. Finally, in Section 5 we summarize some of the principal
findings, and we discuss the potential for future research.
2. Describing and organizing time use literature
The allocation of time has been a topic of interest and research since the beginning
of the twentieth century, creating an overwhelming amount of literature that
contributes to the understanding of people’s time allocation from different
approaches. Although there are many ways to classify this literature, we have
chosen a three dimensional perspective: by historical context, by discipline and by
analytical framework. Concerning the historical context, time use studies have
been changing their focus depending on the development of world issues over
time. According to Pentland et al. (1999) and Bittman and Ironmonger (2011), the
first time use studies were published in the second decade of the twentieth century
(Bevans, 1913; Pember-Reeves, 1913), beginning as early studies of the living
conditions of the working class. In the 1920s two political blocks of time use studies
emerged. On one hand, soviet social scientists and policy makers conducted time
use surveys as they were developing a centrally planned economy, based on an
economic theory that rests on the view that the value of things depends on the time
required for their production (Artemov and Novokhatskaya, 2004). On another
hand, American time use studies concentrated in home economics and the
analysis of domestic labor (Sorokin and Berger, 1939; Minge-Klevana, 1980).
Four decades later, in the 1960s, time use studies were still divided in two political
blocks of analysis. Within the Eastern countries, the emphasis was on the
measurement of progress toward a socialist structure, while Western analysts
concentrated on the informal economy and patterns of leisure activities (Szalai,
1972). From the 1970s till the 1990s, the block division of time use studies
33
diminished but still influenced the focus of studies being conducted. The leading
studies using time use data in Eastern Europe centered on the informal economy,
and in Western countries, studies focused on the domestic economy, gender
equity, valuing non-market production, monitoring trends and the tradeoff between
domestic labor and leisure activities (Robinson et al., 1989). Finally, the most
recent time use studies (after the 2000 s), have seen many of these topics
continued but with a focus on more specific policy-oriented areas such as work-
leisure balance, childcare, the social impact of digital technologies, the
increase of sedentary behavior and more ecologically sustainable ways of living
(Krueger, 2009).
Regarding the disciplinary perspective, the study of time and its allocation by
individuals is a topic that has been covered in many areas of knowledge, being
characterized as a multidisciplinary area of research. Time allocation studies have
a strong presence within the social sciences, where time use and its subjective
perception relates with areas such as sociology, specifically the social construction
of time patterns in different groups (e.g. Zerubavel, 1981; Bergmann, 1992);
psychology, when dealing with cultural diversity and the understanding of
individuals’ time allocation (e.g. Block, 1990; Brislin and Kim, 2003); and
economics, studying the necessity of incorporating time in traditional economic
instruments (e.g. Hood, 1948; Becker, 1965; Hamermesh and Pfann, 2005).
Time use has also been analyzed from the perspective of studies on specific
groups of the population, such as gender studies, detecting differences between
men and women in the labor market and in overall activities (e.g. Aliaga and
Winqvist, 2003; Bryson, 2007); gerontology, studying the relationship between
productivity, leisure and personal care activities within elders (e.g. Moss and
Lawton, 1982; McKinnon, 1992); and occupational therapy, dealing with the impact
of well-being perception over adult care activities (e.g. Hasselkus, 1989; Abdul-
Rahman, 2008).
Finally, time use analysis has even been covered in disciplines that, a priori, one
would suspect are not directly related with time allocation, such as administration,
34
studying the impact in work performance of physical activity at the office,
and the time allocated to face-to-face interaction among coworkers (e.g. Fonner
and Roloff, 2010; von Thiele and Hasson, 2011); and urban planning with the
inclusion of time in the organization of cities (e.g. Millward and Spinney, 2011;
Marsal-Llacuna and López-Ibañez, 2014).
Within the analytical perspective – which can be associated with the traditional
classification of time use studies7 – we have identified four distinctive (but not
mutually exclusive) types of approaches that can be found in the literature:
conceptualtheoretical discussions, data collection methodologies, descriptive data
analysis, and analytical modeling frameworks.
Conceptual-theoretical discussion deals with the understanding and explanation of
diverse time allocation issues. These discussions aim at interpreting the many
ways that time can be allocated by individuals and households, each of them
presented with distinctive and valid arguments, drawn from different theoretical and
conceptual backgrounds (e.g. Block, 1990; Abell, 2003).
Data collection methodologies emphasize the appropriate ways time use
information should be gathered, and the level of detail that should be encouraged,
in order to perform more complete analysis and to assist in the creation of
adequate public policies (e.g. Andorka, 1987; UN Economic Commission for
Europe, 2010; Bittman and Ironmonger, 2011; Munizaga et al., 2011; Gershuny,
2012; Jara-Díaz and Rosales-Salas, 2015).
Descriptive data analysis focuses on presenting organized ways of viewing time
use data, in terms of trends, patterns, activity duration and other indicators.
Overall, its main concern has been contributing to the analysis of the evolution of
time allocation and how it relates to the trade-off among time spent in activities, by
acknowledging the measurements of time as general indicators of living conditions
7 For example, Juster and Stafford (1991), organized the time use literature from the perspective of
data collection (measurement issues), empirical findings (data analysis) and behavioral modeling.
35
(e.g. Gershuny and Jones, 1986; Gershuny and Robinson, 1988; Ampt and
Richardson, 1994; Gershuny, 2003; Aguiar and Hurst, 2009).
Analytical modeling frameworks encompass an extensive area of research that
contains diverse theoretical constructs representing the individual and/or
household time allocation decision process using models. Their main purpose is to
understand the functioning and dynamics of individuals’ choice and the factors,
variables and constraints that condition that behavior. (e.g. Becker, 1965;
Kitamura, 1984; Apps and Rees, 1997; Jara-Díaz et al., 2004; Bhat, 2008; Bargain,
2009). Regarding its evolution, most of the modeling literature has been built
explicitly or implicitly on the classical consumer theory, starting with Becker (1965),
who introduced consumption time as one of the inputs of what he called final
goods, the basic source of utility, inducing an overall value of time equal to the
wage rate as the opportunity cost of leisure. From that point forward, many studies
from several disciplines have discussed and expanded his work by incorporating
new variables, constraints and theoretical frameworks.
We believe that the best form to organize the modeling literature within time use
studies is by paying attention to the type of activity being modeled. This is because
we postulate that the strongest manifestation of the importance individuals
attach to their time use is its allocation to activities, resulting from the superposition
of individual preferences, institutionalized rhythms and collectively imposed
conditions. Within this focus, it is useful to establish the coexistence of two study
groups: those in which there is an attempt to study a particular activity and those
whose object of study is time use as a whole.
In the first group, we have detected that the literature shows three large families of
studies: paid work, analyzing time spent in production on the market (e.g. Card,
1991; Blundell et al., 2005b); unpaid work, analyzing activities that could be
delegated to a paid worker without losing their intrinsic value, such as household
production and childcare (e.g. Chiappori, 1997; Bryant and Zick, 2006); and non-
36
work activities, that includes a vast array of activity types that can be
sub-divided into two categories: leisure and tertiary activities. These latter activities
have several definitions in the literature but, to our opinion, the most adequate
definitions are those given by Burda et al. (2007): Leisure encompasses those
activities that the individual cannot pay other individuals to perform without losing
their intrinsic value and that can be suppressed if needed, such as entertainment
(e.g. Johnson, 1966; Jara-Díaz and Astroza, 2013); Tertiary activities are those
that the individual cannot pay other persons to perform without losing their intrinsic
value, and that have a minimum (‘‘technical”) time requirement. Within this
category, the main activity studied from the point of view of time use and time
values has been transport (e.g. Train and McFadden, 1978; Small, 1982; Jara-Díaz
and Ortúzar, 1989; Jara-Díaz, 1994), although sleep has received some attention
as well (e.g. Biddle and Hamermesh, 1990).
In the second modeling group, the focus is the understanding of time allocation as
a structural phenomenon; all or a specific combination of the activities the
individual performs during a specific period are analyzed (e.g. Becker, 1965;
DeSerpa, 1971; Evans, 1972; Pollak and Wachter, 1975; Kitamura, 1984; Gronau,
1986; Bates, 1987; Bhat and Koppelman, 1999a; Jara-Díaz, 2003; Jara-Díaz and
Guerra, 2003; Jara-Díaz et al., 2008). An organized view of the Time Use
Literature classification can be seen in Fig. 1. The emphasis on activities to study,
analyze and model time allocation has prompted many reviews that have
concentrated on generic activity types such as paid work, unpaid work and non-
work activities. Among the reviews within the area of paid work, Heckman (1993)
stands out as a concise but comprehensive study, analyzing the evolution of labor
supply regarding various issues, such as wages, taxes, intertemporal modeling and
the limitations of available data. He concluded that the main contribution in the
study of labor supply between 1970 and 1990 has been the recognition and
interpretation of a variety of different labor supply functions that coexist in the
empirical literature. Other interesting reviews on paid work have focused on gender
segmentation (Pencavel, 1986; Killingsworth and Heckman, 1986), intertemporal
37
dimension (Card, 1991; Heckman, 1993; Bargain, 2009), and the decision agent(s)
(Laisney and Beninger, 2002; Blundell et al., 2005b).
Unpaid work, more specifically domestic production, has been profoundly analyzed
both as a related aspect of labor supply and in its own merit. There are two authors
that have produced comprehensive revisions of the evolution of domestic
production research: Ironmonger (2000), who concluded that the major scientific
achievement of this field was the measurement of the magnitude of household
production through surveys of the uses of time, and Grossbard (2001, 2010), who
studied forty years of New Home Economics and analyzed the evolution from
single agents to multi-member household models.
38
Besides these, Pollak (2003) presented a revision of Becker’ studies, discussing
his contributions to family and household economics, concluding that Becker’s
ideas have dominated research in the economics of the family, shaping the tools
used, the questions asked, and the answers given. Regarding non-work activities,
most of the reviews on leisure have been descriptive (e.g. Ferge, 1972; Shaw,
1982; Harvey, 1990; European Commission, 2003, 2005, 2007, 2008; Aguiar and
Hurst, 2007, 2009; Alesina et al., 2006), comparing trends in time allocation
between countries, historical periods, specific groups, and contrasting their leisure
time allocation with time assigned to other activities, such as work and travel. On
tertiary activities, reviews on transport have usually focused on different aspect of
travel demand and behavior (e.g. Wardman (1988), on revealed-stated
preferences; Axhausen and Garling (1992), on activity-based approaches;
Timmermans and Zhang (2009), on household activity travel decisions), travel time
values (e.g. Wardman, 1997) and travel and time use (e.g. Bhat and Koppelman,
1999a). The study of time allocation as a structural phenomenon has provided
many insights to time use literature. Jara-Díaz (1994, 1998) covered the role of
time and income from a microeconomic viewpoint and Gonzalez (1997) reviewed
several models that study the subjective value of time emphasizing behavioral
assumptions, the role of constraints, and relevant variables in the utility function.
Jara-Díaz (2007) comprehensively reviewed the overall time use models behind
travel demand and values. There is a constant need to incorporate the study of
time use modeling within the global context of time use research. Therefore, now
we will analyze more profoundly the extent to which single-activity models and
overall ones have been presented and described in the literature8.
3. Single-activity time use models
3.1. Paid work
Work is the only activity that is present in all time use models either in the utility
8 For homogeneity, we will use common notation for the formulation of all models
39
function or in the budget and temporal constraints; it is the only activity that can
provide monetary income, which allows individuals to buy market goods – the
only source of utility recognized by traditional economics – and undertake
activities. The main idea regarding the valuation of work was that the real cost of
working time had to be measured by the activities the individual postponed
because of labor. This evolved toward the acknowledgment of non-work activities
as sources of utility and the fact that resistance to work was not only due to
displeasure of working but also due to satisfaction obtained from non-working time,
originally considered to be the same as leisure time. The first labor supply models
considered the individual as the decision agent and the only two relevant activities
were work and non-work, but only time assigned to the latter was a source of utility.
Most of the models that guide economists ‘analyses of labor supply are based on
research conducted by Jevons (1871), Walras (1889), Marshall (1890) and Hicks
(1946).
The labor supply function is embedded in the neoclassical theory of individual
consumer behavior. Its standard form is:
max U (G,L) (1)
wTw - G ≥ 0 (2)
Tw + L = Ƭ (3)
The individual chooses to assign his total available time (Ƭ) between paid work
(Tw) and leisure activities (L). Given a wage rate (w), the individual spends his total
income in goods consumption (G). Note that deciding on working time is based on
a trade-off between leisure and consumption: increasing Tw permits higher
consumption but at the cost of diminishing leisure. Preferences for leisure (free
time) against goods (consumption), combined with the wage rate, will determine
the optimal (equilibrium) combination. This equilibrium point is characterized by
𝜕𝑈
𝜕𝐿=w
𝜕𝑈
𝜕𝐺. To our opinion, the most important evolution of labor supply models was
the recognition that working time is not only important because of purchasing
power but also as a source of (dis)utility and, therefore, belonged into utility
40
(Johnson, 1966; Evans, 1972). Also, what was implicitly hiding behind the L
variable began receiving more attention. Therefore, both the utility function and the
temporal constraint began incorporating, in latter studies, specific activities drawn
from the separation of ‘‘non-work” into explicit categories, such as transport, unpaid
work, leisure and others. This activity-oriented evolution came in parallel with other
advances. The consideration of all activities performed by individuals induced the
examination of the decision agent: the individual or the household and its
members. The time assigned to work by one individual is now dependent on the
income needed both by the individual and the household, and this household now
faces the opportunity of having a complementary source of income. This change in
modeling induced a new way of looking at the trade-off between work and non-
work and a new look at the way individuals interact within the household:
cooperation, bargain, and unilateral decisions. There have been many attempts to
expand the traditional single-agent approach over the years. The origins of this
expansion can be traced back to research by Becker (1965, 1973, 1974a, 1974b,
1976, 1981a, 1981b), who introduced several modeling innovations within the topic
of marriage dynamics. Becker’s (1965) paper was the basis for several
developments or interpretations on labor supply9. Becker himself (1981a, 1981b)
developed a two-member household model, where each individual is characterized
by his/her own preferences, introducing the idea of ‘‘caring” by assuming that the
preferences of one individual are influenced by the other member’s utility function;
also, individual specific wage rates are introduced. This approach generated a
family of labor supply models such as Chiappori’s (1992), who developed a general
collective model of household labor where there are two stages in the internal
decision process: agents first share non-labor income according to some given
sharing rule; then each one optimally chooses his or her own labor supply and
consumption. This was expanded by Blundell et al. (2005a) who introduced public
goods within the household, specifically expenditure on children; and then by
9 Wetzell (2002) re-interpreted Becker’s (1965) model by noting that, since all consumption requires
time and money, if there are limitations to the extent to which time and money can be substituted for each other in production of final consumption goods, then negatively-sloped labor supply behavior can be induced by the diminution of ability to transfer between time and money inputs.
41
Cherchye et al. (2012) by incorporating children not only as expenses but also as
household members – with no bargaining power of their own.
These studies have not been exempt of criticisms. Duguet and Simonnet (2003)
considered that research such as Chiappori (1992) and most collective labor
supply models are limited because they are restricted to the case where both
household spouses work. From the studies that consider the possibility of one
working member, the focus is on the participation decision of women, but they all
treat the decision of the other household member as exogenous. The incorporation
of the husband’s working time in a married woman’s labor supply is often used to
test for the presence of an added worker effect, per which the spouse of an
unemployed man would offer more labor than a woman with an employed spouse
to compensate the income loss of the household (Lundberg, 1985). The model
presented by Duguet and Simonnet (2003) was constructed to calculate the
incentives to work for each household member. Note that there is research that
considers one (or none) working spouse (Donni, 2000; Blundell et al., 2005b), but
these exclude public goods, e.g. married couples without children.
The modeling framework also evolved in terms of the period analyzed. A dynamic,
lifetime or multi-period model presents alternatives to consumption: investing or
saving money to use it in another period. The interest in lifecycle labor supply
arose from two issues. First, Lucas and Rapping (1970) presented a lifecycle
framework to reconcile an elastic short-run labor supply curve with an inelastic or
even backward-bending long-run labor supply curve. Their idea was to model the
evolution of individuals’ labor supply schemes as a response to the evolution of
individual wages. Therefore, much debate in the macroeconomics literature has
focused on the size of this intertemporal wage elasticity (e.g. Card, 1991). A
second motivation for studying lifecycle modeling arose from human capital theory
and the influence of the pattern of lifecycle wage rates in the pattern of lifecycle
work hours. On this issue, Heckman (1976) noted that a model with endogenous
labor supply can potentially reconcile differences in the lifecycle profiles of earnings
and hourly wage rates. Recently, LópezOspina et al. (2015) explicitly included a
temporal dimension within a microeconomic approach, recognizing that some
42
activities such as a job or education, involve a long-term commitment while others,
such as leisure and shopping, are modified in the short term. By specifying two
time scales (micro and macro), they conclude that preference observations at the
micro level, such as transport mode choice, are strongly conditioned by the
prevailing choices at the macro scale.
Further research within labor theory could benefit from the formulation of specific
technical relations with different types of activities. For example, to analyze the
incorporation of working trips into the total working hours; or to explore the
relationship between the quality of the work performed and sleep; and finally, to
continue the study of the relationship between paid and unpaid work.
3.2. Unpaid work
In general, unpaid work activities can be separated into three main activities:
household production – or domestic labor, care for others (mostly childcare) and
volunteering, with most research focused on the first. In the mid-1960s a major
theoretical development from the neoclassical consumer theory took place, known
as ‘‘new home economics” (Mincer, 1962; Becker, 1960, 1965). In this theory, the
household is regarded as a productive sector with household activities modeled as
a series of industries (Ironmonger, 2000). Households produce commodities that
are designed to satisfy separate wants such as thirst, hunger, warmth and shelter.
The characteristic of the commodities used and produced can be regarded as
defining the production and consumption technology of households. With changes
in incomes and prices, households still alter expenditures as in the earlier theory.
However, households adjust their behavior as they discover new commodities and
their usefulness in household production processes.
Given that unpaid work was drawn from labor supply theory, domestic labor
research adopted almost the same framework but with a clear emphasis on how to
value work conducted inside the household. Additionally, the presence of children
appears as an important issue when allocating individual and/or household time.
43
Furthermore, there is a clear distinction between the consumption of market goods
and household produced goods, difference not acknowledged in the labor supply
literature, e.g. restaurant dinner versus home cooking. As with the labor supply
literature, domestic work research recognizes that a realistic way to model
household behavior is to consider a multi-member approach, which is why most
models in this category represent a 2-member household as the unit of analysis.
The generic domestic labor model structure can be formulated as:
Un is the individual utility of member n; Xjn; Yhn; Ln are the consumption of market
purchased good j, household produced good h and time assigned to leisure by
individual n respectively; Twn; wn; In; Thn are time assigned to market work, wage
rate, non-work income, and time assigned to household production for individual n,
respectively; Y is the total amount of household produced goods by both members,
and h(Th1; Th2) is the household production function that depends on time
assigned by both members.
Unlike standard labor supply models, the unpaid work framework includes market
consumption and household produced goods (home and/or childcare), from which
the time assigned to leisure and domestic labor (or childcare) appears explicitly.
Some studies incorporate households and individuals’ socio-demographic
characteristics and sometimes individual decisions are influenced not only by the
own income but also by the spouse’s. Preferences can be altruistic and there may
be positive externalities from household production. The presence of children is a
factor that can also alter the household decision-making process (e.g. Bryant and
Zick, 2006). It is worth noting that some self-labeled labor supply models contain
explicit links with unpaid work models, with a focus on domestic labor (e.g.
Cherchye et al., 2012).
44
There have been attempts to estimate a monetary value to domestic labor or
household production (Clark, 1958; Morgan et al., 1962; Nordhaus and Tobin,
1972; Sirageldin, 1973; Weinrobe, 1974; Murphy, 1978). However, this has not yet
been included in official national accounts such as the Gross National Product
(GNP) or even considered as a formal measure of household income and
expenses. The fact that GNP estimations ignore the value of goods and services
produced within the household might seriously underestimate its magnitude and
produces a bias in national and international comparisons between domestic and
market indexes.
There is, however, a problem when trying to estimate the value of household
services. Three methods of imputing a value to the time used in household
production have been used, all taking a wage per hour from the market economy
(Ironmonger, 2000). The first is the ‘‘opportunity cost” wage that a person could be
paid for doing an extra hour of work in a market job rather than an hour of unpaid
household work. The second method, ‘‘specialist replacement cost”, uses the
wages of specialist paid workers who come to the household, e.g., a cleaner, a
cook, a nanny, a gardener, to value the same tasks performed by household
members. Finally, a ‘‘generalist replacement cost” method of valuation uses the
wage rate for a generalist worker or housekeeper. This is regarded as more
appropriate than the former since the working conditions and ranges of activities
are similar to those of household members.
Because time use surveys usually provide limited information about household
activities (i.e. time allocated to domestic labor), they tend to omit the contribution
from non-human capital such as land, housing and equipment (technology) owned
by households, therefore leaving behind the value added by such elements toward
domestic production.
45
There is still work to be done within unpaid work research. As pointed out by
Ironmonger (1996), the role of households in building human capital resources
needs much greater research. Education, nurturing and training are still classified
as consumption rather than investment goods, leading to the debate about the
extent to which childcare is a community concern rather than just a private,
parental responsibility. Furthermore, the effects of changing household technology
on unpaid household work need a more detailed examination to understand
changes in, for example, gender division of labor. Some of these issues have
emerged recently; for example, the introduction of domestic activities where
external providers could be hired, an issue closely related with the distinction
between homemade goods and market goods (Rosales-Salas and Jara-Díaz,
2017).
3.3. Non-work activities: Leisure
So far, we have treated non-work activities as a single category but, as justified in
Section 2, it includes leisure and tertiary activities. As we will now discuss, the
concept of leisure is a rather complex and highly relevant issue that has received
great attention.
Beginning with the seminal works of Mincer (1962) and Becker (1965), and further
influenced by labor supply models, there was an overall acceptance that time can
be conceptually divided into two activities: work and non-work (or leisure).
According to Feldman and Hornik (1981), despite the apparent simplicity and
benefit of leisure defined in terms of freely chosen, intrinsically satisfactory
activities, theorists do not agree about how much non-work should be defined as
leisure, because the freedom of choice of many non-work activities is subjectively
determined (Kaplan, 1960, 1975; Voss, 1967; Ennis, 1968; Bull, 1971; Gronau,
1977). Activities defined as leisure are the consequence of subjective perception
on the part of each consumer. For example, cleaning the pool on summer could be
46
unpaid work to one individual and leisure to another. Within the past decades, the
need to disaggregate non-working time into specific types of activities grew,
beginning with Johnson (1966) who directly incorporated time allocated to an
activity (leisure and work) into the utility function. Later, all activity times where
introduced by DeSerpa (1971) and Evans (1972), Gronau (1977) divided available
time into consumption time, market work and work at home; Stafford and Cohen
(1974) and Biddle and Hamermesh (1990) presented nonmarket activities that
contribute to market productivity and job performance, e.g. work breaks and sleep;
Jara-Díaz and Guerra (2003) gave each activity a role both within the utility
function and in the constraints. Classifying activities is not a trivial matter and
leisure, as a category, presents an extra difficulty: subjectivity (Clark et al.,
1990; Neulinger, 1981; Kelly, 1974, 1980). The literature acknowledges that there
is no clear distinction or an agreement about a unique definition for leisure, so the
activities classified as such are determined a priori by the researchers under their
own conceptions. Leisure can be characterized in many ways. According to
Feldman and Hornik (1981), economic analysis defines leisure as a normal good
with a positive income effect (Hall, 1970; Gronau, 1977). Additionally, leisure
implies consumption time, in contrast with work and domestic labor that can be
categorized as production (Pollak and Wachter, 1975; Becker, 1976). Some
sociologists define leisure as the time that is available after subsistence needs are
covered (Parker, 1978). Moreover, the psychological definition of leisure
emphasizes the self-development and achievements obtained through freely
chosen activities (Neulinger and Crandall, 1976; Williams, 1977). Leisure can also
be linked with the definition of ‘‘discretionary time” as the time beyond that
necessary to attend to required functions (Goodin et al., 2008). There is, however,
no consensus on what ‘‘necessary time” means and could depend on the individual
or the situation (Goodin et al., 2005). On the same grounds, leisure could be seen
as the time left after household production time, paid work and commuting time
have been deducted (Gronau, 1973; Barnet-Verzat and Ekert-Jaffé, 2003). These
views point to leisure as a residual category of activities (Lundberg et al., 1934;
Kaplan, 1960; Szalai, 1972; Kirsh et al., 1974; Schliewen, 1977).
47
Although one could view this variety of approaches as an advantage and as
something to be encouraged, its major limitation has been the lack of theoretical
development within the field of study and the non-cumulative nature of much of the
research. Clark et al. (1990) stated that leisure research that has been undertaken
has not had the impact it might have had, because the lack of agreement over
definitions has made it difficult to create a comprehensive understanding of leisure
patterns. The process of categorizing activities as leisure or as non-leisure is
problematic. One problem is that this approach does not take the individual into
account. Instead, it imposes a universal definition: that is, if an activity is
categorized as leisure it is defined as leisure for everybody in all circumstances. As
Clark et al. (1990) stated, it is difficult to think of any specific activity which could
not be considered as either work or as leisure by different individuals. Accordingly,
this would suggest that no categorization of activities could be ‘‘correct” because of
individual differences in attitudes toward specific activities. Additionally, there is
another problem present with leisure definitions: situational specificity. The same
individual participating in the same activity may consider it to be leisure at one
particular time or location, whereas at another time or location he or she may
consider it to be work, or at least non- leisure (Shaw, 1982). Other situational
factors which may affect the definition of the activity include the day of the week,
the duration of the activity and the presence or absence of other people.
This vast array of definitions shows a significant contrast with what researchers
have used when formulating their time use models. Because the modeling aspects
of time use research must represent reality as best as possible within certain
limitations (e.g. to analyze 70 activities is a more complex task than to analyze 3
groups of activities such as work, leisure and tertiary activities), several
simplifications have come to existence.
To present a clear classification of activities, a decision must be made in terms of
separating non-work activities into clear and mutually exclusive categories. Let us
48
present the conceptions that we believe to be the most adequate operational
definitions of leisure. The first one is derived from the third-party rule proposed by
Reid (1934, p.11). She presented a test to separate production from consumption
and social activities: ‘‘if an activity is of such character that it might be delegated to
a paid worker, then that activity shall be deemed productive”. Therefore, within the
unproductive activities, one can define leisure as ‘‘all activities that we cannot pay
someone else to do for us and that we do not have to do at all if we do not wish to”
(Burda et al., 2007, p.5). The second one was first introduced by De Serpa (1971,
p. 834). He stated that leisure is freedom from work, which derives in the allocation
of more time than required to the consumption to any particular good. In his words:
‘‘...the primary responsibility of the time resource is with respect to the consumption
of goods. Given the solution vector of the n goods, (X1*; . . . ; Xn
*), a minimum
amount of time, specified by the parameters, a1; . . . ; an, must be allocated to their
consumption. Freedom from this responsibility, which inheres in the choice to
allocate more time to any particular good than is required, thus constitutes leisure.”
Although these definitions are born from different angles – non-delegable activities
or activities one is willing to extend beyond necessity, they have a similar intention
that distinguishes leisure activities from those that must be performed but the
individual is never willing to extend, i.e. tertiary activities (to be covered in point
3.4).
Broadly speaking, these converging definitions can be understood in two ways:
first, if an activity does not have to be performed, the individual has a choice, e.g.
playing soccer with friends, or not; second, if an activity must be performed,
the individual can choose to allocate more time than the required if he or she
wishes to, e.g. eating lunch in 10 min or the same lunch in 30 (the individual
chooses to assign the extra 20 min). Both scenarios coincide with the definition
presented by DeSerpa (1971), accepting that the minimum could be zero. The
leisure modeling literature can be classified into three somehow overlapping
groups of articles: those that deal with recreation demand modeling, which is an
established field by itself; those that focus on obtaining a value of leisure from
49
different viewpoints; and those articles that – independently of each other – deal
with a specific activity of interest, which we will call general leisure modeling. Let us
begin with the latter.
The main purpose of general leisure models is to analyze how the time assigned to
a particular activity has affected the ability of the individual or the household to
supply labor into the market. Therefore, there are as many studies as leisure
activities of interest and every model emphasizes two main activities: the specific
leisure activity conducted, and paid work.
Here we present a generic formulation of the general form adopted by leisure
studies, where Tp is the time assigned to that particular leisure activity.
Factors that affect their decisions. Models in this area form a self-contained
category and usually combine information on the individuals’ characteristics, site
visits and travel costs, which includes both direct costs (e.g. fuel and vehicle
maintenance), and the opportunity cost of travel time. We have found that, in
accordance with Train (1998), the recreational activity that has received most
attention from modelers is fishing (Bockstael et al., 1989; Morey et al., 1991, 1993,
1995; Wegge et al., 1991; Parsons and Needleman, 1992; Parsons and Kealy,
1992; Hausman et al., 1995; Desvousges et al., 1996). These models are used to
describe the choices of whether to take a fishing trip during a given period, the
duration of the trip, which species of fish to target, and/or where to go fishing (e.g.
trip to a lake or river), providing estimates of the individuals’ willingness to
pay for changes in site attributes, as well as the values of individual sites
themselves (Bockstael et al., 1991).
Most of the recreation demand models have been developed following two
formulations of the consumer choice process. On one hand, a composite market
50
good and recreation trips provide utility (e.g. McConnell, 1975; McConnell and
Strand, 1981). On the other hand, income and the amount of work and leisure time
directly enter the utility function (e.g. Cesario, 1976). Within the first type of
formulation, recreation trips consider a given period, and time allocated to
recreation must be diverted from other uses if the recreation trip is to be taken. The
second type of recreation demand modeling considers the general problem of
allocating time between work and leisure activities. It assumes that the decision to
visit a recreation site is the same as any other leisure activity choice. A general
formulation of recreation demand models is presented by Lew and Larson (2005),
where the consumer faces the following problem:
This is an utility maximization problem conditional on the jth recreational site being
chosen, with the individual allocating time freely to work and other activities (x)
given their money cost (contained in p) and their time (contained in t). This type of
framework can be traced back to McConnell (1975) and provides the basis for a
discrete choice approach, where the individual is seen as choosing the site that
yields the maximum conditional utility, similar to what has been done in the area
of travel demand as shown in 3.4 below.
Recreational demand models have emphasized the issue of time valuation.
According to Larson and Shaikh (2004), several studies have followed the basic
logic of Becker (1965), assuming that the opportunity cost of recreation time (i.e.
the value of other time forgone in favor of recreation) is an exogenous parameter,
such as the average wage rate or, some fraction thereof. This fraction is either
chosen arbitrarily or estimated as part of the recreation demand model, as in
Cesario (1976), McConnell and Strand (1981) and Smith et al. (1983). Recently,
however, there have been attempts to formulate some form of the value of leisure
that goes beyond the average wage rate. For example, Fezzi et al. (2014)
51
formulated the value of travel time to recreation sites using a framework based on
DeSerpa (1971) and Lew and Larson (2012) estimated the value of recreation
time in sport fishing by asking individuals to select among different trip choices
based on a series of attributes.
There is, however, a limitation that we have detected across the leisure literature
focused on specific activities, including recreation: in general, it has not accounted
for the studies conducted within the overall time use modeling literature (covered in
Section 4) that has significantly evolved from works such as Becker (1965) and
DeSerpa (1971). One of such studies, Jara-Díaz et al. (2008), formulated a time
use model built from DeSerpa’s framework which leads to both a labor supply
equations and equations for freely chosen activities, labeled as leisure under that
framework, i.e. equations that represent leisure models in themselves. One of the
main outcomes from such models is the estimation of a value of leisure –
analytically deduced – that happens to be a function not only of the wage rate, but
also of what they called committed expenses Ec (the sum over expenses in
constrained goods minus fixed income I), of committed time Tc (the sum of
constrained activities) and of parameters related with the perception of freely
chosen activities (H) and freely chosen goods (U), as shown in Eq. (14).
Leisure equation models leading to values of time have also been estimated using
the structural equations framework, adding variables representing expenses on
leisure activities (Konduri et al., 2011). The combination of both approaches has
led to a new concept called the revealed willingness to pay for leisure (RWPL),
identified and estimated by Jara-Díaz and Astroza (2013), that contributes to form
a total value of leisure (Eq. (15)) which is the sum of the shadow price of time – the
original value of leisure within the microeconomic theory (Eq. (14)) – and the
52
RWPL, equal to the total effect of time allocated to a leisure activity and expenses
associated with them.
By understanding how the formulation of the values of time (e.g. value of leisure)
evolved within different theoretical backgrounds, one can detect why there is a
significant disconnection between the value of leisure presented in overall time use
models and in the recreational demand area (and a few other fields): in general,
recreation demand models do not incorporate all activities conducted by the
individual into the utility function (particularly work), leading toward the same
problem found in both paid work (Section 3.1) and unpaid work models (Section
3.2) – the assumption that some activities do not contribute (dis)utility to the
individual, therefore ultimately yielding a biased value of time. This is yet another
evidence of the lack of interaction among disciplines dealing with time use, and
points toward the need to elaborate a unified and operational taxonomy for leisure,
tertiary and unproductive activities (Reid, 1934; DeSerpa, 1971; Burda et al., 2007)
3.4. Non-work activities: Tertiary activities
Considering that in the previous section we concluded that the concepts of leisure
provided by DeSerpa (1971) and Burda et al. (2007) converge, let us recall the
latter:‘‘all activities that we cannot pay someone else to do for us and that we do
not have to do at all if we do not wish to” (p.5). With this definition, we clearly are
left with activities that are neither work nor leisure, which have been called tertiary
activities. Burda et al. (2007, p.3) defined this sub-category when analyzing
household production, leisure and the trade-off with work: ‘‘One alternative to
production is tertiary activities, those things that we cannot pay other people to do
for us but that we must do at least some of”. According to this definition, this sub-
category includes activities such as eating, sleeping, personal care and transport.
On one hand, eating, sleeping and personal care are among the most basic and
53
required human activities as they are fundamental to survive, they require
minimum amounts of time consumption, and one cannot pay another individual to
perform them for us. Transport, on another hand, is a special type of tertiary
activity. The specific kind of transport activity we are referring to is the one needed
to carry on other particular activities.
Individuals who need to perform activities personally in another location, such as
working or studying, require traveling to do so, and cannot delegate those trips to
another person. Furthermore, there are technological constraints that pose a
minimum time required by individuals to travel, such as maximum legal speed.
Within this category, there are two activities that have been covered in the
literature to our knowledge: transport and sleep. However, the literature on
transport, time assigned and its value is overwhelmingly large, constituting an area
of research by itself, as we will now see.
3.4.1. Transport
The object of study in transport analysis is multifaceted and covers the issues of
the generation (to travel or not) and distribution (where to go) of travel, mode
choice (how to travel) and the (re)location of activities. The models within this area
of research have been formulated, in general, based on the classical theory of the
consumer and its extension to encompass time use.
Models of discrete transport mode choice were first justified by Train and
McFadden (1978) based on the approach of Becker (1965), who proposed a theory
of time use in which the utility of individuals depends on commodities and time
consumption and where time has a unique value given by the wage rate. Since
then, many theories have been developed either trying to enrich the model
proposed by Becker (DeSerpa, 1971; Evans, 1972; Gronau, 1977; Juster, 1990) or
adapt it to the study of specific aspects like travel time, including the pioneering
contributions of Oort (1969), which includes travel time in the utility function, and
54
Small (1982), which includes the time of the trip as an important decision variable.
Later, transport models known as ‘‘activity based” were developed from the
pioneering work of Kitamura (1984) to the most recent of Bhat et al. (2013). The
focus of these models is to understand the context of the trip decision, recognizing
that the activity structure, for the individual or the household, is distributed in space
and time, generating the different types of travel. There are many perspectives to
study activity-based models, which are: time equations, structural equations, and
activity program generation (see Astroza, 2012). In the last decade Jara-Díaz
(2003, 2007), Munizaga et al. (2008) and Jara-Díaz et al. (2008, 2012), among
others, have taken up and expanded DeSerpa’s formulation by modeling activities
and travel together to then concentrate on the study of time use and time values in
general. The approach thus generated has allowed deriving time use models from
which time values assigned to activities such as work or leisure have been
obtained empirically, as explained below (Section 4). Within travel decision-making
at an individual level, mode choice is an area that has been covered extensively by
the literature. As stated above, the first approach aimed at understanding mode
choice is the goods/leisure trade-off framework for daily travel to work proposed by
Train and McFadden (1978), where modal travel time Ttm and cost cm are
variables that influence utility by means of goods consumption and time spent in
leisure, both dependent of the mode m selected. For a single trip, this can be
presented as:
This model reproduces most of the properties of Becker’s (1965) approach,
including its limitations, particularly the fact that travel time savings are theoretically
valued at the individual’s wage rate. The use of endogenous income by Train and
McFadden’s (1978) was challenged by Jara-Díaz and Farah (1987). They
presented a version of the goods/leisure model in which the hours of work and the
total income are fixed within the relevant period. In the case of exogenous income,
the individual can not diminish their hours of work even if it brings dissatisfaction,
55
but he or she is not limited to work more hours (for free) if work is pleasurable.
When working hours and income are fixed, what matters are the time available to
spend it and the disposable income available, which in this model can be adjusted
only within the possibilities open by the travel modes available to the individual,
who must choose between cheap-slow modes and expensive-fast ones. Evidently,
cost and time are not the only determinants in this type of choice (Jara-Díaz,
2007).
Besides the microeconomic approach presented so far, research regarding
individuals travel choice behavior has been also performed under the heading of
activity-based travel analysis (extensively covered in Section 4). According to
Clarke et al. (1981) the focus in this type of studies is the individuals’ activity
schedule, the importance of spatial and temporal constraints, and the interaction
between household members, aiming at the prediction of changes in households’
activity schedule where travel is one such activities. An important part of this
approach is the various constraints that limit an individual choice set. Another is
that travel behavior is dependent upon household structure, for example different
stages in a family life cycle (e.g. without children, with children or retired).
Within transport modeling, there are still some issues that need to be addressed,
such as data requirements (new and/or more detailed kinds of data) and modeling
challenges, like the inclusion of new variables (e.g. comfort, attributes and/or
preferences).
It is next to impossible to provide a definitive answer regarding the information
required to estimate every transport model, as models differ widely in terms of their
theoretical background and can be always further developed to include new
elements. However, Arentze et al. (1997) presented an analysis of the dimensions
that need to be addressed when studying data needs and the requirements when
analyzing data quality. On one hand, the consensus regarding data needs, is that
the researcher wants information on activities, location, timing, ‘‘with whom”, and
transport mode. On another hand, in terms of data quality, the authors state that,
56
even though it is a multidimensional concept that has received different meanings
in different disciplines, there are overall requirements needed to conduct proper
research, such as reliability, i.e. the consistency with which an instrument
measures whatever it does measure; validity i.e. whether the selected variables
measure the concept they intend to measure; level of detail, understood as the
compatibility between the operational definitions of the choice dimensions, the
explanatory variables and the aim of the model-building process; consistency,
whether the same definitions and classifications have been used across the data
sources; completeness, the notion that one should always be able to classify every
unit of observation; and an efficient use of the data. Regarding modeling
challenges, changes in policy, theory development and modeling in general have
led to the development of new classes of transport demand models that are of
increased complexity, such that the explanatory variables traditionally confined to
attributes of the transportation system, have become inadequate. This has led to
the analysis of issues such as the influence of comfort and convenience on travel
mode choice, in addition to travel time and travel cost (e.g. DeSerpa, 1973;
Hensher et al., 1975; Koppelman and Pas, 1980; Koppelman and Lyon, 1981;
Nerhagen, 2000); and the impact of information and communication technologies
(ICTs) on the valuation of travel time, transit services and teleactivity (e.g. Frei et
al., 2015; Pawlak et al., 2015). Data needs, modeling challenges, and the
requirements for data quality have been emphasized in a series of recent articles.
In terms of activities, level of detail and the use of ICT, Gerike et al. (2015)
analyzed the recollection procedures behind Travel Surveys and Time Use
Surveys, considering both travel and non-travel activities. They recommended
using continuous time intervals for activity diaries, besides other improvement
recommendations for the design of both type of surveys, such as proxy reporting,
survey coding instructions, multiple activities recording, and incorporation of data
regarding the usage of information and communication technology (ICT). In terms
of timing, completeness and travel time, Minnen et al. (2015) showed that multi-day
time-diary data might help identifying temporal regularities, such as repetition and
timing of transportation activities. They demonstrated that a breakdown of
57
continuous time-use data in 10-min time intervals adhered most to the original data
and that it made hardly any difference whether they included the activity on the first
or last minute of the discrete time intervals. In terms of an efficient use of the data,
Jara-Díaz and Rosales-Salas (2015) analyzed the appropriate duration of time
diaries as a source of time use data. They studied the advantages and limitations
of different lengths of data collection on time-use analysis. They found that a two-
day weighted survey seems to be an adequate surrogate for weekly time-use
information in the context of a work-leisure cycle. However, the authors note that
‘‘this recommendation applies only for surveys that would serve analyses of the
same nature and specific purpose as the ones performed in this research”
(Jara-Díaz and Rosales-Salas, 2015, p. 54).
3.4.2. Sleep
The other activity that stands out within this group is sleep, a necessary activity
that has vast implications for multiple aspects of everyday life, consuming a large
amount of non-working time. Although research on this area has been growing
since the 1990’s, the amount of studies conducted is still relatively small in
absolute terms. This might explain why the availability of time for activities with
active participation (awake) is usually considered a fixed quantity (Hegarty, 2012).
The first authors that addressed this topic from a microeconomic perspective were
Biddle and Hamermesh (1990), who built on Becker’s (1965) idea that sleep and
other activities are required for efficiency to increase monetary income. In their
model, utility is assumed to depend on time allocated to sleep (Ts) and
commodities consumption (G), which in turn is related to time assigned to their
consumption ðTGÞ and market goods ðXÞ; sleep increases productivity, which is
represented by a positive effect on wages (w2). The model is:
58
From this model, the cost of a unit of sleep time happens to be equal to the
opportunity cost of the time used during the period the individual slept: ‘‘the wage
rate minus any addition to labor income that occurs as a result of the effect of extra
sleep on productivity” (Biddle and Hamermesh, 1990, pp. 934). Their empirical
results show that people with higher wages sleep less, especially men. In their
words ‘‘Individuals whose time is more valuable substitute away from the relatively
time-intensive commodity sleep, a commodity that yields utility but no direct
income” (pp. 938).
The impact of sleep on workers’ performance was empirically supported by
Akerstedt (1991). In this century, Szalontai (2006) found strong and significant
negative effects of wages and education on sleep using South African data. Also,
Stolzar (2006) studied time allocation among college students, finding a negative
association between grade point averages (GPA scores) and sleep hours.
Recently, Asgeirsdottir and Zoega (2011) extended the formulation of Biddle and
Hamermesh (1990) by modeling the decision on sleep quality as endogenous and
as an investment in the level of alertness that the individuals enjoy during the day.
Several studies on sleep habits and sleep time have been performed in many
countries and with different purposes. Tune (1968) reviewed habitual sleep
patterns in adults using time diaries, finding variations in mean sleep time of over
30 min across age groups, results that were confirmed by Morgan (1987) and
Hume et al. (1998), who showed that sleep time decreases with age. The
relationship between sleep and cognitive performance, alertness, memory,
decision making, reasoning, problem solving and accidents has been analyzed by
Van Dongen et al. (2003) and Turner et al. (2007), among others. Similarly, there
59
are studies regarding deprivation of sleep (e.g. Carskadon and Dement, 1981),
which have found that sleep serves a purpose of physical and mental restitution.
The timing of sleep has also been studied in relation to an individual’s
circadian rhythm and the effects on the quality of sleep (Wyatt et al., 1999;
Aeschbach et al., 2003; Van Dongen et al., 2005). According to Asgeirsdottir and
Zoega (2011), sleep and its effects vary a great deal with factors such as the
presence of children, diet, appetite, income, and both the nature and amount of
work, which relates with the markets for sleep medications, pillows, mattresses,
time-saving gadgets, alcohol, caffeine and other drugs, etc. (Walsh and
Engelhardt, 1999; Wyatt et al., 1999).
In terms of time use modeling, sleep research has a long way to go and we believe
that the elements required to advance are available but not yet properly integrated.
As described, there is a rich body of literature dealing with the links between
socio-economic characteristics of individuals and the quality and quantity of sleep.
It would be beneficial to enrich present modeling frameworks with those findings,
as has been done by including elements such as alertness and its links with sleep,
productivity and enjoyment.
5. Overall time use modeling
The study of the use of time as a whole tries to understand time allocation as a
structural phenomenon, analyzing the relationships between activities – often
described by their duration – and the characteristics of individuals who allocate
their time to them. Overall time use modeling literature can be analyzed in many
ways. To our opinion, the most important issues are the utility framework and the
unit of analysis.
60
5.1. The utility framework
Time use models can be derived from a utility maximizing framework in order to
obtain time allocated to an activity as a function of independent variables. There
are two groups of models that use the concept of utility in their formulation:
microeconomic models – those that expand the neoclassical consumer theory to
include time related constraints besides the money budget -, and activity-based
models – a framework that was born recognizing mainly the time constraints,
emphasizing the context in which the individual decides to allocate his or her time
to any particular activity (Astroza, 2012).
5.1.1. Microeconomic models
The first general theory of time allocation was formulated by Becker (1965).
Although this approach has been disputed and extended over the decades by
many authors, there is a consensus in the idea that individual time use is derived
from the maximization of a household utility function subject to a time and a budget
constraint. After Becker’s economic theory, other studies contributed to the
understanding of the value of time. Johnson (1966) was the first to directly
incorporate time allocated to an activity (i.e. leisure and work) into the utility
function, departing from Becker’s idea that the individual draws
utility from ‘‘final goods”. By doing so, he established that the value of time was
equal to the wage rate plus another component: the subjective value of work.
Furthermore, he stated that the total value of work was equal to the value of
leisure, which in turn was also equal to the value of travel time. However, Ort
(1969), building on Johnson’s analysis, proposed that not only work and leisure
had to be including into the utility function, but also travel time, thus differentiating
the value of leisure from the value of travel time, now referred to as the subjective
value of travel time savings (SVTTS). After that, an important contribution came
both in terms of the constraints present in the model and the utility function.
61
DeSerpa (1971) was the first to acknowledge that all activities had an impact over
the individual’s utility, together with all goods consumed. He also explicitly
introduced a set of technical constraints relating time and goods, establishing that
consumption of a given good required a minimum allocation of time. Furthermore,
Evans (1972) was the first to present a utility function dependent only on time
allocated to activities, establishing that those activities need consumption of goods
as inputs. Many reviews (e.g. Pas and Harvey, 1997; Gonzalez, 1997; Jara-Díaz,
2007) have discussed the economic formulations of time allocation and we refer
the interested reader to these studies. In the last decade, contributions toward the
empirical estimation of time use models and calculation of time values from a
microeconomic perspective have been proposed and applied. The model by Jara-
Díaz (2003) formulated a conceptual structure that expanded on DeSerpa (1971)
and included technological relations between goods consumption and time
assignment to activities.
where U is the utility function, θi and Ƞj are parameters corresponding to activities
and goods respectively, X is an utility constant, Xj is the market good j consumed
with its price Pj, T i is the time assigned to activity i, T w corresponds to the time
assigned to work, w is the wage rate, Ƭ is the length of the period considered, f i(X)
is the minimum time that has to be assigned to activity i (which depends on goods
consumed), gj(T) is the minimum amount of good j that has to be consumed
in order to perform activities T. The parameters λ; μ; k and u are the Lagrange
multipliers that represent the change in utility when the corresponding constraint is
relaxed by one unit. Therefore, λ is the marginal utility of income, l is the marginal
utility of available time, ji is the marginal utility of diminishing the minimum time of
62
activity i in one unit, and Θj is the marginal utility of diminishing the minimum
consumption of good j in one unit.
Jara-Díaz and Guevara (2003) presented a simplified version of this model and
linked it to discrete travel choice, calculating the components behind the value of
travel time (leisure and (dis)utility). This was extended by Jara-Díaz and Guerra
(2003) by including all activities, goods consumption and any discrete choice. By
replacing the general transformation functions in equations (28) and (29) with
exogenous minima, i.e., T min i and Xmin j they obtained closed form solutions for the
decision variables (time at work and freely chosen goods and activities) as
functions of total committed expenses Ec (sum over expenses in constrained
goods minus fixed income I), total committed time Tc (the sum of constrained
activities) and the wage rate. From these, the authors obtain the values of leisure
and work for each individual as:
where Θ > 0 and Φ > 0 are the summations of the positive exponents Θi and Ƞk ver
all unrestricted leisure activities and unrestricted goods, respectively. These
equations fulfill the condition that:
Microeconomic models also have limitations that open space for improvements. A
first type of problem must do with the functional form. The studies performed by
Jara-Díaz and associates chose a Cobb-Douglas functional form for utility, which
permits the estimation of time allocation models and the different values of time,
properties that do not follow from functional forms such as the CES, Stone-Geary,
quadratic or Translog, among others (Contreras, 2010). However, there are two
main limitations associated with the Cobb-Douglas formulation. First, it imposes
63
marginal utilities with a constant sign for each argument, something that should be
open to empirical verification. For example, Prasch (2000) states that it is
reasonable to think that the marginal utility of leisure activities could present
different signs depending on income, as for individuals with medium or high
salaries the marginal utility of leisure activities would be, in general, positive;
however,
marginal utility could also be negative for unemployed individuals with very low
income and consumption below a level to permit leisure enjoyment. Also, the
marginal utility of work could change sign from positive to negative as time at work
increases. A second problem is related with the multiplicative form of the Cobb-
Douglas, such that no arguments can have a zero value. Of course, there are ways
to overcome these problems, like proper segmentation per socio-economic
characteristics to have correct point estimates for different segments but variability
across segments; or imposing minima on the time assigned to discretionary
activities.
Another important limitation of this type of formulation is the use of endogenous
income. In general, most microeconomic models follow the framework of Train and
McFadden (1978), in which individuals decide how many hours to work (Tw) at a
pre-specified wage rate w. This situation does not occur for a large segment of the
population in many developing countries. As previously examined, Jara-Díaz and
Farah (1987) proposed a model where the hours of work (Tw) and the total income
(I) were fixed within the period. Expanding the analysis of this study, Jara-Díaz
(2002) concludes that if the individual works more than strictly required by contract,
then the value of leisure is equal to the subjective value of work, which must be
positive. This is equivalent to the case when the individual chooses the working
hours but with a zero wage rate.
A third limitation is the modeling period used. Estimating the values of time in a
one-period static model that does not consider individual long-term time allocation
and budgeting decisions may finalize with conclusions that do not represent the
64
real decision-making process the individuals underwent. An alternative to this type
of framework are dynamic or lifetime models. These structures represent the
individual as an agent that conducts successive decisions in terms of time
allocation to activities, goods consumptions, savings and investments.
A fourth type of limitation is the unit of analysis used by these models. Even though
the individual is the agent that has the final decision on his or her time allocation, it
must be acknowledged that, in terms of the utility drawn from activities, there is a
difference between performing an activity on their own or doing them as a couple,
with friends, family or a group.
The motivation to allocate time to certain activities can be heavily influenced by the
presence of other individuals and this is not included in the microeconomic models
presented so far.
Besides the specific limitations shown above, microeconomic models share
characteristics that have been criticized by some authors. According to certain
social sciences, the assumption of stability in individual preferences is troublesome
(Pérez, 1997). It follows that if the behavior of an individual varies over time, it is
assumed that the change was due to a variation in driving forces, not preferences.
The new socio-economic paradigm opposes this argument even though accepts
that the factors causing changes in preferences are multiple and may vary
depending on the discipline studying them, having different hypothesis in areas
such as psychology, anthropology, political science and sociology. Pérez (1997)
also argues that the weakness of the neoclassical theory regarding fixed
preferences is due to the fear that the variation in human preferences means
having to constantly manipulate the theory and the assumption of individual
autonomy and consumer sovereignty.
65
Another difference between economic studies and other social sciences is the
argument of rationality (Abell, 2003). Neoclassical economic models argue that
individuals are rational maximizers of what is useful to them; and if these people
act differently, this may not be included in the study. Disciplines such as sociology,
psychology and even branches of economics such as socioeconomics and
behavioral economics have investigated the interaction of individuals under non-
rational behavior (Turner, 1996).
5.1.2. Activity-based models
The seminal work of activity-based modeling can be attributed to Kitamura (1984),
which postulates a discrete choice model of activity participation (an activity can be
performed on that day or not) and continuous in time allocation. The model can be
formulated as:
Where qi is a vector of characteristics of activity i. Total utility U is the sum of the
utilities obtained for each activity Ui(Ti,qi), following this function when time
allocated is positive:
Here, f (qi) is a function that indicates each individual valuation of activities
characteristics εi is a positive error term and Ɣi is a positive parameter. Kitamura
(1984) admits the fact that when the individuals do not allocate time to
discretionary activities, they do not generate utility from them. From this, the utility
function Ui is generated as follows:
66
In the last decades, the activity-based approach to travel demand analysis has
received much attention and has experienced significant progress (see Pinjari and
Bhat (2011) and Ronald et al. (2008) for recent reviews). For example, there have
been several advancements in the utility function formulation of these models, such
as Munshi (1993), Kitamura et al. (1996a, 1996b), Kim et al. (2002) and Bhat
(2005, 2008), among others. Note that this particular type of activity-based models
does not allow obtaining time values because it only uses a temporal constraint.
Although not founded within an utility framework, there is an activity-based family
of models that has helped the formulation of time use models; this are the
structural equations models (SEM), that try to capture the influence that certain
exogenous variables have over endogenous variables (activities in this case), and
the influence of endogenous variables among themselves (see Golob, 2003, for an
extended review). SEM is essentially a system of linear equations with as many
endogenous variables as equations, synthesized as:
Here, T is a vector of time allocated to different activities (endogenous variables), A
is a matrix of parameters associated with these times (null diagonal), ϵ is a vector
of socioeconomic characteristics of the individuals (exogenous variables), B is
the matrix of parameters associated with the socioeconomic characteristics, is the
vector of error terms associated with endogenous variables, and I is the identity
matrix. This linear system captures two effects: the direct one, (the effect of
variable yj on yi) and the indirect one (the sum of the effects of variable yj on other
variables k that in turn have a direct effect on yi). The total effect is the sum of
these two. This has been used in various forms by Golob and McNally (1995),
Koppelman and Townsend (1987), van Wissen (1989), Stopher and Vadarevu
(1995) and Lu and Pas (1997). Konduri et al. (2011) extended system (35) by
including expenditure equations on leisure activities to induce the calculation of a
67
value for leisure. This prompted the formulation by Jara-Díaz and Astroza (2013)
who improved the incorporation of expenses, activities and socioeconomic
variables into the SEM and calculated the revealed willingness to pay for leisure
(RWPL), a concept theoretically different from the value of leisure formulated within
a microeconomic framework. As explained in Section 3.3, RWPL can be
considered a component of a larger construct: the total value of leisure. The
authors conclude that the SEM by itself does not allow the calculation of the value
of leisure and that the microeconomic approach needs to expand to consider
explicit constraints relating goods consumption and time use.
Finally, the models based on a multiple discrete-continuous extreme value
(MDCEV) approach (Bhat, 2005, 2008), considers that many consumer choice
situations are characterized by the simultaneous demand for multiple alternatives
that are imperfect substitutes for one another. He introduced a simple and
parsimonious econometric approach to handle multiple discreteness, which is also
based on the generalized variant of the translated CES utility function but with a
multiplicative log-extreme value error term. Bhat’s model is analytically tractable in
the probability expressions and is practical even for situations with a large number
of discrete consumption alternatives. In fact, the MDCEV model represents the
multinomial logit (MNL) form-equivalent for multiple discrete-continuous choice
analysis and collapses exactly to the MNL in the case that each (and every)
decision-maker chooses only one alternative.
It is worth emphasizing that the MDCEV formulation has been extended such that
the activity based approach has met the microeconomic approach by incorporating
a money budget constraint (Eq. (38)) that generates a general model represented
by (Castro et al., 2012):
68
where ψi > 0 is the marginal utility when consumption of xi is zero, ψi is a function
of the attributes vector qi of activity i. Ɣi is a positive parameter for each good i. G
is the total expense in consumption. Given that Ƭ is total time available for goods
consumption, gi is the time rate for which each unit of good i is consumed. In
addition, 0 < αi ≤ 1 captures satiation effects, where if αi = 1 for every i, there is no
satiation, or equivalently, a constant marginal utility. When αi decreases, the
satiation effect on good i increases. Finally, as with the microeconomic models
presented previously, λ y μ are the Lagrange multipliers of income and time
constraints respectively. This work manages to capture the value of time as a
resource (μ=λ). Even though traditional activity-based models have made
conceptual, theoretical and methodological contributions in the understanding of
travel behavior, there are challenges that can still be addressed. Regarding data
requirements, activity-based models require large amounts of detailed and
accurate input data to estimate the characteristics of each individual and
household, and to correctly evaluate accessibility across highway, transit and non-
motorized networks. They often require more detailed information not readily
available from general sources, most notably household and transit surveys.
Without this greater level of detail, many of the advantages of activity-based
models cannot be achieved.
One of the appealing aspects of activity-based models is that they appear to be
modeling travel by ‘‘following people around”, rather than by making gross a priori
generalizations about broad classes of people and types of travel. Yet for
any real population, each day is necessarily different. Bhat and Koppelman
(1999b) stated that the unit of analysis typically used in the activity-based travel
models is the weekday. The implicit assumption is that there is little variation in
activitytravel patterns across different days of the week. Research focusing even
69
on simple aggregate measures of activity-travel behavior (such as trip frequency,
and number and type of stops made during the morning/evening commutes) has
indicated quite substantial intrapersonal variability across weekdays. Of course, the
use of an entire week as the unit of analysis could be quite expensive, which offers
research opportunities for the development of data collection methods and
coverage that There is an increasing consensus in the literature on household
behavior that we cannot model the decisions of a multiindividual household as if
the household had a set of stable and unique preferences (as if it were a black
box), the so-called ‘unitary’ model. Therefore, several alternatives have been
suggested, ranging from bargaining models to cooperative and non-cooperative
models.
Models on household activity start with the contribution of Becker (1965) who, as
stated before, assumed that family members behave as if they were maximizing a
household utility function subject to a household budget constraint. This is called a
unitary model. Unitary models consider household behavior as a result of a single
individual’s decision or a joint utility function for a multi-individual household,
disregarding that when dealing with a multi-individual household, individuals’
preferences interact as part of the decision-making process of the household.
Many studies have been presented either trying to enrich the model proposed by
Becker (DeSerpa, 1971; Evans, 1972; Gronau, 1977; Juster, 1990) or adapt it to
the study of specific aspects of the use of time, but all consider the individual or the
‘‘black box” household as the unit of analysis. More details on unitary models
literature can be found in Juster and Stafford (1991), Gonzalez (1997) and Jara-
Díaz (2007).
According to Laisney and Beninger (2002), this type of model presents several
difficulties, but the main ones are aggregation of preferences (Arrow, 1951;
Hildenbrand, 1994) and of individual demands (Deaton and Muellbauer, 1980).
Since the unitary model considers the household as a single unit, different
70
preferences among members of the family remain hidden. The potential for
misinterpretation of the reality of multi-individual households by relying on unitary
models has led to the proposal of different modeling frameworks that consider the
household as a field of competition and struggle, as well as cooperation and
caring.
Samuelson (1956) was the first author that presented the idea of a household utility
function based on distinct utilities of each family member. Since the individuals
agree on a social welfare function, the household behaves as if it were maximizing
the household welfare function. This would lead to an optimal redistribution of
income among the household members per their individual expenditures. On the
contrary, Becker (1974b, 1981a, 1981b) proposed a model where the family utility
function is the same as an ‘‘altruistic” head of the family. His decisions determine
the intra-family distribution of resources and the redistribution of utility among
household members according to his marginal utilities. This scenario of pure
altruism within the families is contradictory with the main assumption of individuals
as selfish decision-making units in the outside market. To maximize one household
utility function and to represent the behavior of a whole family just by the decisions
of the head of the household is subject to criticism. These models, although an
advancement in the area of modeling resource allocation within the family, have
been described as highly restrictive (Ben Porath, 1982; Bergstrom, 1989).
Moreover, it has been postulated that allocation within the family can create conflict
(Sen, 1984, 1990a, 1990b). Within a multi-individual modeling framework, bargain
models are, to our opinion, the most relevant decision-making processes studied.
The behavior of the household is represented by a process of bargaining that
occurs among family members. According to Beblo (2001), bargain models are
characterized by the object of bargaining, the identification of the players’
objectives, the set of feasible outcomes, the associated payoff for each player and
the specification of rules by which outcomes are to be determined. Regarding
household decisions, each family member bargain over the allocation of their
71
time, particularly labor time, unpaid work, and leisure activities. Furthermore, they
can argue regarding the distribution of resources, such as income and
consumption goods. Contrary to unitary models, individuals within a household are
considered to be autonomous decision-making units with their distinct, but
interdependent, optimization - utility maximization- problems. The most important
types of bargaining models are: Cooperative, non-cooperative and dynamic
models, where the latter one can combine both cooperative as well as non-
cooperative features.
Cooperative bargaining models assume that individuals form a multi-member
household when the benefit of doing so is higher than remaining alone. These
benefits can be obtained due to a more efficient way to produce household goods
and/or economies of scale in the sharing of goods. The benefits drawn from
forming a household need to be distributed among the members and it is the rule
that oversees that distribution what differentiates bargain models from unitary ones
(Alderman et al., 1997). Cooperative models assume free communication between
family members, symmetry of information and voice.
The cooperative Nash solution replaces the Becker-type household utility function
as a weighted average of the individual utility functions. Another important
assumption of this type of model is Pareto efficiency of outcomes. Per this
assumption, the bargaining process guarantees intra-family time allocation and
distribution of resources where the position of each family member cannot be
improved without diminishing another member’s welfare (Beblo, 2001). In general,
cooperative models often deal with marriage and domestic decision making
processes (e.g. Manser and Brown, 1980; McElroy and Horney, 1981; Woolley,
1988; Lundberg and Pollak, 1993).
The assumption of free communication, symmetry of information and voice
between family members led to the formulation of a specific cooperative approach:
the collective model (Chiappori, 1988, 1992; Apps and Rees, 1988), where
72
household members have their own utility function and the household equilibrium is
Pareto-efficient: they behave as if the household optimizes a collective utility
function, with the individual utilities of the members as arguments. As stated in
Laisney and Beninger (2002), the basic model has been extended in several
directions, including household production, children and resource sharing rules
within the household (e.g. Apps and Rees, 1996, 1997, 1999; Chiappori, 1997;
Chiuri, 1999; Bourguignon, 1999), and the presence of more than two decision
makers in the household (Browning and Chiappori, 1998). More details on
collective models literature can be found in the survey of Vermeulen (2002). On
another hand, non-cooperative models explicitly specify a bargaining process and
model strategic behavior of the individuals involved. They do not require assuming
symmetric information or Pareto-efficient outcomes. Moreover, each
member optimizes his own utility function and takes the behavior of the other as
given. This context will yield a noncooperative Nash-equilibrium (e.g. Leuthold,
1968; Ashworth and Ulph, 1981; Kooreman and Kapteyn, 1990; Browning,
2000; Cheng and Woolley, 2001). Although one member cannot coordinate his
decisions with other members of the household, individual utility maximization
depends on the decisions made by other members, for instance due to household
public goods that only must be produced by one member but can then be
consumed by all of them.
Finally, dynamic models present a combination of elements from cooperative and
non-cooperative modeling structures. They integrate the cooperative Nash-
bargaining framework with the strategic component of non-cooperative models. For
example, they are used to model the dynamic impacts of a time use decision on
human capital formation (e.g. Ott, 1992; Wells and Maher, 1996; Konrad and
Lommerud, 2000), accounting for the strategic behavior within the family in the
form of sequential non-cooperation. Moreover, they consider intertemporal
dependencies of household decisions in proposing dynamic bargaining models. As
presented by Beblo (2001), the dynamic framework seems to be most appropriate
to explain labor force participation of many women who not only consider actual
73
wage income but also the human capital aspect of job experience as well as their
future bargaining power within the household when making time use decisions.
6. Synthesis, conclusions and further research
Time use research is a multidisciplinary field with contributions originated from
diverse areas, focuses and approaches. This diversity can be an excellent basis to
build a solid theoretical and methodological structure toward the study of time
allocation. We have summarized, addressed and examined different forms of
looking at time use literature: by discipline, historical context and type of analysis.
We gave the reader a brief description of the origins and evolution of time
allocation literature through different approaches, focusing later on the modeling
part of time use research through the eyes of the particular activity being studied
and as an overall phenomenon. This exhaustive exercise has taught us some
lessons.
To our opinion, the main resulting insight from this review is that the literature on
time use research is overwhelmingly diverse and disconnected, showing little
interaction across disciplines, due in part to issues such as the heterogeneous
nature of the research approaches and disciplinary styles and backgrounds. This
compartmental evolution has not allowed overcoming limitations that could be
solved by integrating the advantages of multiple frameworks, such as the
formulation, the explanatory power and interpretation of current models. We
believe there are clear opportunities of knowledge transfer between the individual
disciplines.
Regarding paid work, labor theory would benefit from the formulation of specific
technical relations with different types of activities, e.g. the incorporation of working
trips into the total working hours or the relationship between the quality of the work
performed and sleep time.
74
In terms of unpaid labor, the exploration of the role of households in building
human capital resources should de further addressed. So far, items as education,
nurturing and training are still classified as consumption rather than investment,
leading – for example - to the debate about the extent to which childcare is a
community concern rather than just a private, parental responsibility. Also, there is
a need to further study the effects of changing household technology on unpaid
household work and its links with, for example, gender division of labor.
Leisure literature could benefit greatly from agreeing on a unified and operational
taxonomy for productive and unproductive activities (leisure, tertiary). Additionally,
recreational demand modeling would benefit from the interaction with the
theoretical background already developed in overall time use literature.
In terms of tertiary activities, further research in transport analysis should focus on
data requirements (new and/or more detailed kinds of data) and data quality; and
on modeling challenges, like the inclusion of new variables and the treatment of
the increasing complexity of transport models. Regarding sleep, given its relevance
both in magnitude within a work-leisure cycle and the impact on the quality of other
activities, integration with other disciplines and the enrichment of present modeling
frameworks with past and current findings, is nearly mandatory. Further research
could be built upon the development of alertness and of the relationship between
sleep and productivity.
Finally, the study of the use of time as a whole could evolve toward an exploration
of the utility framework (e.g. different utility functions and diverse budgetary and
technical constraints) and the study of the interaction between different units of
analysis.
The interdisciplinary research needs and opportunities identified above are
examples of what we consider the main issue in time use modeling, which is the
general disconnection among studies on time use across different disciplines. To
75
estimate models mainly focused on paid work, unpaid work, or non-work activities
(leisure or tertiary) might lead to biased results given that individual time allocation
decisions are not properly represented. Thus, it is our recommendation that, even if
researchers are trying to understand a particular activity, they need to assess the
importance and influence of all activities that the individual performs in a given
period – even at an aggregate level - so that the decision process is fully
characterized.
Looking at different activities simultaneously within the context of overall activities
is far from trivial. Future studies should consider the type of categories identified
here as they imply different analytical treatments, e.g., classifying commute as
transport or paid work, or categorizing childcare as a tertiary activity or leisure.
Further research could yield another type of classification (e.g. productive and
unproductive activities) or a further disaggregation of categories. Furthermore, the
classification of models by activity can somehow be complemented with the
treatment of other dimensions covered here, such as the unit of analysis or the
intertemporal framework.
Another important lesson for the immediate research agenda on time use is the
detection of interesting formulations and methodologies in some areas that could
feed other areas and facilitate integration. For example, some activities have been
looked, modeled and analyzed as discrete choices, as is the case of travel and
recreation. Discreteness has received attention from the modeling viewpoint by
itself, which has generated sophisticated treatments that have led to the
emergence of models like the multiple discrete-continuous extreme value
approach, whose generality and flexibility makes it a good candidate to
accommodate an integrating view of time use as an all-embracing phenomenon
that can have a magnifying lens on specific activities. The most important
interaction improvement of the twentieth century was, to our opinion, the
acknowledgement of unpaid/domestic work as a separate discipline of research
from labor supply. This activity has been an important topic of discussion in areas
76
such as official national accounts, in terms of the valued added to current
measurements; gender studies and household production valuation. This
approach, however, has not been properly considered in time use models, even
though there have been some efforts to acknowledge home economics as a
source of improvement in the modeling and understanding of the value of time,
both individual and social (Jara-Díaz, 2008). To our opinion, accounting for the
value of household production and domestic work, and the effect of the trade-off
between work and non-work activities such as leisure is close to mandatory in the
present stage of world development, where technical advancements have changed
domestic and work life dramatically.
Acknowledgements
This research was partially funded by Fondecyt, Chile, Grant 1160410, the Institute
for Complex Engineering Systems, grants ICM: P-05-004-F and CONICYT:
FB0816 and the ACTUM Project. Jorge Rosales-Salas acknowledges Fondecyt,
Chile, Postdoctoral Grant 3160178. We thank the comments of Professors
Chandra Bhat, Marcela Munizaga, Alejandro Tudela and an unknown referee.
Remaining errors are, of course, our responsibility.
77
References:
Abdul-Rahman, M.F., 2008. The Demand for Physical Activity: An Application of Grossman’s Health
Demand Model to the Elderly Population Electronic Thesis. Ohio State University, Columbus.
Abell, P., 2003. On the prospects for a unified social science: economics and sociology. Socio-
Econ. Rev. 1 (1), 1–26.
Aeschbach, D., Sher, L., Postolache, T.T., Matthews, J.R., Jackson, M.A., Wehr, T.A., 2003. A
longer biological night in long sleepers than in short sleepers. J. Clin.
Endocrinol. Metab. 88 (1), 26–30.
Aguiar, M., Hurst, E., 2007. Measuring leisure: the allocation of time over five decades. Quart. J.
Econ. 122 (3), 969–1006.
Aguiar, M., Hurst, E., 2009. A summary of trends in american time allocation: 1965–2005. Soc.
Indic. Res. 93 (1), 57–64.
Akerstedt, T., 1991. Sleepiness at work: effects of irregular work hours. In: Monk, T.H. (Ed.), Sleep,
Sleepiness and Performance. John Wiley, Chichester, pp. 129–154.
Alderman, H., Haddad, L., Hoddinott, J., 1997. Policy issues and intrahousehold resource
allocation: conclusions. In: Haddad, L., Hoddinott, J., Alderman, H. (Eds.), Intrahousehold Resource
Allocation in Developing Countries. Models, Methods, and Policy, Baltimore/London, pp. 275–291.
Alesina, A., Glaeser, E., Sacerdote, B., 2006. Work and Leisure in the U.S. and Europe: Why So
Different? NBER Macroeconomics Annual 2005, vol. 20. National Bureau of Economic Research
Inc, pp. 1–100.
Aliaga, C., Winqvist, K., 2003. How Women and Men Spend Their Time. Eurostat, Luxembourg.
Ampt, E., Richardson, A.J., 1994. The validity of self-completed surveys for collecting travel
behaviour data. Proceedings of the 22nd European Transportation Conference, vol. 2, pp. 77–88.
Andorka, R., 1987. Time budgets and their uses. Ann. Rev. Sociol. 13, 149–164.
Apps, P.F., Rees, R., 1988. Taxation and the household. J. Public Econom. 35, 355–369.
78
Apps, P.F., Rees, R., 1996. Labor supply, household production and intra-family welfare
distribution. J. Public Econom. 60, 199–220.
Apps, P.F., Rees, R., 1997. Collective labor supply and household production. J. Polit. Econ. 105,
178–190.
Apps, P.F., Rees, R., 1999. Individual versus joint taxation in models with household production. J.
Polit. Econ. 107, 393–403.
Arentze, T., Timmermans, H., Hofman, F., Kalfs, N., 1997. Data Needs, Data Collection, and Data
Quality Requirements of Activity-based Transport Demand Models, Paper presented in the
International Conference on Transport Survey Quality and Innovation, May 24–30, 1997, Grainau,
Germany.
Arrow, K., 1951. Choix Collectif Et Préférences Individuelles. CalmannLévy, Paris.
Artemov, V., Novokhatskaya, O., 2004. Time budget studies in the soviet union in the 1920s-1930s.
In: Paper Presented at the International Association for Time Use Research XXVI Conference: Time
Use: What’s New in Methodology and Application Fields?, Rome, Italy.
Asgeirsdottir, T., Zoega, G., 2011. On the economics of sleeping. Mind Soc.: Cognit. Stud. Econ.
Soc. Sci. 10 (2), 149–164.
Ashworth, J., Ulph, D.T., 1981. Household models. In: brown, C.V. (Ed.), Taxation and Labour
Supply. Allen & Unwin, London.
Astroza, S., 2012. Análisis comparativo de modelos de uso de tiempo Master thesis in Civil
Engineering, Transport major. Universidad de Chile.
Axhausen, K.W., Garling, T., 1992. Activity-based approaches to travel analysis: conceptual
frameworks, models, and research problems. Trans. Rev. 12 (4), 323–341.
Azzi, C., Ehrenberg, R., 1975. Household allocation of time and church attendance. J. Polit. Econ.
83 (1), 27–56. Bargain, O., 2009. Flexible labor supply models. Econ. Lett. 105, 103–105.
Barnet-Verzat, C., Ekert-Jaffé, O., 2003. Le coût du temps consacré aux enfants. Communication
aux Journées de Micro-économie Appliquée, Montpellier, 5–6 juin.
79
Bates, J., 1987. Measuring travel time values with discrete choice model: a note. Econ. J. 97, 493–
498.
Beblo, M., 2001. Bargaining Over Time Allocation. Springer, Berlin.
Becker, G., 1960. An Economic Analysis of Fertility. In: National Bureau Committee for Economic
Research, Demographic and Economic Change in Developed Countries, a Conference of the
Universities. Princeton University Press, Princeton, N.J. Becker, G., 1965. A theory of the allocation
of time. Econ. J. 75, 493–517.
Becker, G., 1973. A Theory of Marriage: Part I. J. Polit. Econ. 81, 813–846.
Becker, G., 1974a. A theory of marriage: Part II. J. Polit. Econ. 82 (2), S11–S26.
Becker, G., 1974b. A theory of social interactions. J. Polit. Econ. 82, 1063–1093.
Becker, G., 1976. The Economic Approach to Human Behavior. University of Chicago Press,
Chicago.
Becker, G., 1981a. Altruism in the Family and Selfishness in the Market Place. Económica 48, 1–
15.
Becker, G., 1981b. A Treatise on the Family. Harvard University Press, Cambridge, Massachusetts.
Ben Porath, Y., 1982. Economics and the family-match or mismatch: a review of Becker’s a treatise
on the family. J. Econ. Liter. 20, 52–64.
Bergmann, W., 1992. The problem of time in sociology: an overview of the literature on the state of
theory and research on the ’Sociology of Time’, 1900–82. Time Soc. 1 (1), 81–134.
Bergstrom, T.C., 1989. A fresh look at the rotten kid theorem and other household mysteries. J.
Polit. Econ. 97, 1138–1159.
Bevans, G.E., 1913. How Working Men Spend Their Spare Time. Columbia University Press, New
York.
Bhargava, A., 1997. Nutritional status and the allocation of time in Rwandese households. J.
Econom. 77 (1), 277–295.
Bhat, C.R., 2005. A multiple discrete-continuous extreme value model: formulation and application
to discretionary time-use decisions. Transp. Res. Part B 39 (8), 679–707.
80
Bhat, C.R., 2008. The multiple discrete continuous extreme value (MDCEV) model: role of utility
function parameters, identification considerations, and model extensions. Transp. Res. B 42 (3),
274–303.
Bhat, C.R., Koppelman, F., 1999a. A retrospective and prospective survey of time-use research.
Transportation 26 (2), 119–139.
Bhat, C.R., Koppelman, F., 1999b. Activity-based modelling of travel demand. In: Hall, R. (Ed.),
Handbook of Transportation Science. Kluwer Academic Publishers, Norwell.
Bhat, C.R., Goulias, K.G., Pendyala, R.M., Paleti, R., Sidharthan, R., Schmitt, L., Hu, H.-H., 2013. A
household-level activity pattern generation model with an application for Southern California.
Transportation 40 (5), 1063–1086.
Biddle, J., Hamermesh, D., 1990. Sleep and the allocation of time. J. Polit. Econ. 98 (5(1)), 922–
943.
Bittman, M., Ironmonger, D., 2011. Valuing time: a conference overview. Soc. Indic. Res. 101, 173–
183.
Block, R.A., 1990. Models of psychological time. In: Block, R.A. (Ed.), Cognitive Models of
Psychological Time. Erlbaum, Hillsdale, NJ, pp. 1–35.
Blundell, R., Chiappori, P.-A., Meghir, C., 2005a. Collective labor supply with children. J. Polit.
Econ. 113 (6), 1277–1306.
Blundell, R., Chiappori, P-A., Magnac, T. and Meghir, C., 2005b. Collective Labor Supply:
Heterogeneity and nonparticipation. CREST Working Paper, pp. 01–32.
Bockstael, N., McConnell, K., Strand, L., 1989. A random utility model for sportsfishing: some
preliminary results for Florida. Mar. Resour. Econ. 6, 245–260.
Bockstael, N., McConnell, K., Strand, L., 1991. Recreation. In: Braden, J., Kolstad, C. (Eds.),
Measuring the Demand for Environmental Quality, vol. 8. NorthHolland Press, Amsterdam.
Bourguignon, F., 1999. The cost of children: may the collective approach to household behavior
help? J. Popul. Econ. 12, 503–521.
81
Brislin, R.W., Kim, E., 2003. Cultural diversity in people’s understanding and uses of time. Appl.
Psychol.: Int. Rev. 52 (3), 363–382.
Browning, M., 2000. The saving behavior of a two-person household. Scandinavian J. Econ. 102
(2), 235–251.
Browning, M., Chiappori, P.-A., 1998. Efficient intra household allocations: a general
characterization and empirical tests. Econometrica 66, 1241–1278.
Browning, M., Gørt, M., 2012. Spending time and money within the household. Scandinavian J.
Econ. 114 (3), 681–704.
Bryant, W., Zick, C., 2006. The Economic Organization of the Household. Cambridge Books,
Cambridge University Press.
Bryson, V., 2007. Gender and the Politics of Time. The Policy Press, Bristol, UK.
Bull, C., 1971. One measure of defining a leisure activity. J. Leisure Res. 3, 120–126.
Burda, M., Hamermesh, D., Weil, P., 2007. Total Work, Gender and Social Norms, NBER Working
Papers 13000, National Bureau of Economic Research Inc.Card, D., 1991. Intertemporal Labor
Supply: An Assessment. National Bureau of Economic Research (Cambridge), Working Paper No.
3602.
Carpio, C., Wohlgenant, M., Safley, C., 2008. A structural econometric model of joint consumption
of goods and recreational time: an application to pickyour-own fruit. Am. J. Agric. Econ. 90 (3), 644–
657.
Carskadon, M.A., Dement, W.C., 1981. Cumulative effects of sleep restriction on daytime
sleepiness. Psychophysiology 18, 107–113.
Castro, M., Bhat, C., Pendyala, R., Jara-Díaz, S., 2012. Accommodating multiple constraints in the
multiple discrete–continuous extreme value (MDCEV) choice model. Transp. Res. Part B 46 (6),
729–743.
Cesario, F.J., 1976. Value of time in recreation benefit studies. Land Econ. 52 (1), 32–41.
Chen, C., Mokhtarian, P., 2006. Tradeoffs between time allocations to maintenance activities/travel
and discretionary activities/travel. Transportation 33 (3), 223–240.
82
Cheng, Z., Woolley, F., 2001. A cournot-nash model of family decision making. Econ. J. 111, 722–
748.
Cherchye, L., De Rock, B., Vermeulen, F., 2012. Married with children: a collective labor supply
model with detailed time use and intrahousehold expenditure information. Am. Econ. Rev. 102 (7),
3377–3405.
Chiappori, P.-A., 1988. Rational household labor supply. Econometrica 56, 63–89.
Chiappori, P.-A., 1992. Collective labor supply and welfare. J. Polit. Econ. 100 (3), 437–467.
Chiappori, P.-A., 1997. Introducing household production in collective models of labor supply. J.
Polit. Econ. 105 (1), 191–209.
Chiuri, M.C., 1999. Intra-Household Allocation of Time and Resources: Empirical Evidence on a
Sample of Italian Households with Young Children, TMR Progress Report n5, Tilburg. Clark, C.,
1958. The Economics of Housework, Bulletin of the Oxford Institute of Statistics, May, pp. 205–211.
Clark, S., Harvey, A., Shaw, M., 1990. Time use and leisure: subjective and objective aspects. Soc.
Indic. Res. 23 (4), 337–352.
Clarke, M.I., Dix, M.C., Jones, P.M., Heggie, I.G., 1981. Some recent development in activity-travel
analysis and modeling. Transp. Res. Rec. 794, 1–8.
Collings, J.J., 1974. The valuation of leisure travel time. Reg. Urban Econ. 4, 65–67.
Contreras, R., 2010. El tiempo de trabajo en la modelación de viajes urbanos Master’s dissertation.
Universidad de Chile, Chile.
Corneo, G., 2005. Work and television. Eur. J. Polit. Econ. 21 (1), 99–113.
DeSerpa, A., 1971. A theory of the economics of time. Econ. J. 81, 828–846.
DeSerpa, A., 1973. Microeconomic theory and the valuation of travel time: some clarification. Reg.
Urban Econ. 2 (4), 401–410.
Deaton, D.A., Muellbauer, J., 1980. Economics and Consumer Behavior. Cambridge University
Press.
83
Desvousges, W., Waters, S., Train, K., 1996. Supplemental report on potential economic losses
associated with recreational services in the Upper Clark Fork River Basin. Triangle Economic
Research, Durham, NC.
Donni, O., 2000. Collective Household Labor Supply: Nonparticipation and Income Taxation.
Working Paper 00–17, Université Laval, Québec.
Duguet, E., Simonnet, V., 2003. The Participation of Couples in the Labor Market: An Econometric
Analysis. Université de Paris I, Paris.
Ennis, P.H., 1968. The definition and measurement of leisure. In: Sheldon, E.B., Moore, W.E.
(Eds.), Indicators of Social Change. Russell Sage Foundation, New York, pp. 525–572.
European Commission, 2003. Time Use at Different Stages of Life, Results From 13 European
Countries, July 2003. EUROSTAT, Luxembourg.European Commission, 2005. Consumers in
Europe Facts and Figures. EUROSTAT, Luxembourg.
European Commission, 2007. Cultural Statistics. EUROSTAT, Luxembourg.
European Commission, 2008. The Life of Women and Men in Europe, a Statistical Portrait.
EUROSTAT, Luxembourg.
Evans, A., 1972. On the theory of the valuation and allocation of time. Scottish J. Polit. Econ. 19 (1),
1–17.
Feldman, L., Hornik, J., 1981. The use of time: an integrated conceptual model. J. Consum. Res. 7
(4), 407–419.
Ferge, S., 1972. Social differentiation in leisure choices. In: Szalai, Alexander (Ed.), The Use of
Time. Mouton, The Hague.
Fezzi, C., Bateman, I., Ferrini, S., 2014. Using revealed preferences to estimate the Value of Travel
Time to recreation sites. J. Environ. Econ. Manage. 67 (1), 58–70.
Fonner, M., Roloff, M., 2010. Why teleworkers are more satisfied with their jobs than are office-
based workers: when less contact is beneficial. J. Appl.
Commun. Res. 38 (4), 336–361.
84
Frei, C., Mahmassani, H., Frei, A., 2015. Making time count: Traveler activity engagement on urban
transit. Transp. Res. Part A 76, 58–70.
Gerike, R., Gehlert, T., Leisch, F., 2015. Time use in travel surveys and time use surveys – Two
sides of the same coin? Transp. Res. Part A 76, 4–24.
Gershuny, J., 2003. Changing Times: Work and Leisure in Postindustrial Society. Oxford University
Press. Gershuny, J., 2012. Too many zeros: a method for estimating long-term time-use from short
diaries. Annales d’E˙ conomie et de Statistique 105 (106), 247–270.
Gershuny, J., Jones, S., 1986. Time Use in Seven Countries. European Foundation, Dublin.
Gershuny, J., Robinson, J., 1988. Historical changes in the household division of labor.
Demography 25 (4), 537–552.
Golob, T., 2003. Structural equation modeling for travel behavior research. Transp. Res. Part B 37,
1–25.
Golob, T.F., McNally, M.G., 1995. A model of household interactions in activity participation and the
derived demand for travel. In: Presented at the European Institute of Retailing and Service Studies
(EIRASS), Conference on Activity-Based Approaches, Eindhoven, The Netherlands.
Gonzalez, R.M., 1997. The value of time: a theoretical review. Trans. Rev.: Trans. Transdiscip. J.
17 (3), 245–266.
Goodin, R., Rice, J., Bittman, M., Saunders, P., 2005. The time-pressure illusion: discretionary time
vs free time. Soc. Indic. Res. 73, 43–70.
Goodin, R., Rice, J., Parpo, A., Eriksson, L., 2008. Discretionary Time: A New Measure of Freedom.
Cambridge University Press.
Gronau, R., 1973. The Intrafamily allocation of time: the value of housewives’ time. Am. Econ. Rev.
63, 643–651.
Gronau, R., 1977. Leisure, home production, and work-the theory of the allocation of time revisited.
J. Polit. Econ. 85 (6), 1099–1123.
85
Gronau, R., 1986. Home production - a survey. In: Ashenfelter, O., Layard, R. (Eds.), Handbook of
Labor Economics 1, North Holland, pp. 273–304.
Grossbard, S., 2001. The new home economics at Colombia and Chicago. Feminist Econ. 7 (3),
103–130.
Grossbard, S., 2010. Independent Individual Decision-Makers in Household Models and the New
Home Economics, IZA Discussion Papers 5138, Institute for the Study of Labor (IZA). Hall, R.,
1970.
Wages, Income and Hours of Work in the U. S. Labor Force, Working papers 62, Massachusetts
Institute of Technology (MIT), Department of Economics.
Hamermesh, D., Pfann, G.A., 2005. Time-use data in economics. Eur. Econ. Rev. 49, 1–7.
Harvey, A.S., 1990. Time use studies for leisure analysis. Soc. Indic. Res. 23 (4), 309–336.
Hasselkus, B.R., 1989. The meaning of daily activity in family caregiving for the elderly. Am. J.
Occup. Ther. 43 (10), 649–656.
Hausman, J., Leonard, G., McFadden, D., 1995. A utility-consistent, combined discrete choice and
count data model: assessing recreational use losses due to natural resource damage. J. Public
Econ. 56, 1–30.
Hauser, J., Urban, G., Weinberg, B., 1993. How consumers allocate their time when searching for
information. J. Mark. Res. 30 (4), 452–466.
Heckman, J., 1976. A Life-Cycle Model of Earnings, Learning, and Consumption. J. Polit. Econ. a4
(Supplement, August 1976), S11–S44.
Heckman, J., 1993. What has been learned about labor supply in the past twenty years? Am. Econ.
Rev. 83 (2), 116–121.
Hegarty, S., 2012. The myth of the eight-hour sleep, BBC World Service, Retrieved from
<http://www.bbc.com/news/magazine-16964783> on January 19th, 2017.
Hensher, D.A., McLeod, P.B., Stanley, J.K., 1975. Usefulness of attitudinal measures in
investigating the choice of travel mode. Int. J. Trans. Econ. 2 (1), 51–75.
86
Hicks, J.R., 1946. Value and Capital. Oxford University Press, Oxford. Hildenbrand, W., 1994.
Market Demand: Theory and Empirical Evidence. Princeton University Press.
Hood, W., 1948. Some aspects of the treatment of time in economic theory. Can. J. Econ. Polit. Sci.
14 (4), 453–468.
Hume, K.I., Van, F., Watson, A., 1998. A field study of age and gender differences in habitual adult
sleep. J. Sleep Res. 7, 85–94.
Ironmonger, D., 1996. Counting outputs, capital inputs and caring labor: estimating gross household
product. Feminist Econ. 2 (3), 37–64.
Ironmonger, D., 2000. Household Production and the Household Economy, Department of
Economics - Working Papers Series 759, The University of Melbourne, Melbourne.
Jara-Díaz, S., 1994. A general micro-model of users’ behavior: the basic issues. Preprints of the
Seventh International Conference on Travel Behaviour Research, Valle Nevado, Santiago, Chile,
13–16 June.
Jara-Díaz, S.R., 1998. Time and income in travel choice: towards a microeconomic activity
framework. In: Garling, T., Laitia, T., Westin, K. (Eds.), Theoretical Foundations of Travel Choice
Modelling. Pergamon, pp. 51–73.
Jara-Díaz, S., 2002. The Goods/Activities Framework for Discrete Travel Choices: Indirect Utility
and Value of Time Chapter 20. In: Mahmassani, H. (Ed.), Perpetual Motion: Travel Behavior
Research Opportunities and Application Challenges. Pergamon, pp. 415–430. Originally presented
at the 8th IABTR Conference, Austin Texas, 1997.
Jara-Díaz, S., 2003. On the goods-activities technical relations in the time allocation theory.
Transportation 30, 245–260.
Jara-Díaz, S., 2007. Transport Economic Theory. Elsevier, Oxford.
Jara-Díaz, S., 2008. Allocation and valuation of travel time savings. In: Henshery, D., Button, K.
(Eds.), Handbook of Transport Modelling. second ed. Pergamon Press, Oxford, pp. 363–379.
Jara-Díaz, S., Farah, M., 1987. Transport demand and user’s benefits with fixed income: the
goods/leisure trade-off revisited. Transp. Res. 21B (2), 165–170.
87
Jara-Díaz, S.R., Ortúzar, J., 1989. Introducing the expenditure rate in the estimation of mode choice
models. J. Trans. Econ. Policy 23, 293–308.
Jara-Díaz, S., Guerra, R., 2003. Modeling activity duration and travel choice from a common
microeconomic framework. In: Presented at the 10th International Conference on Travel Behavior.
Lucerne, Switzerland.
Jara-Díaz, S., Guevara, A., 2003. Behind the subjective value of travel time savings: the perception
of work, leisure and travel from a joint mode choiceactivity model. J. Trans. Econ. Policy 37, 29–46.
Jara-Díaz, S., Munizaga, M., Greeven, P., Romero, P., 2004. The activities time assignment
system: The value of work and leisure for Germans and Chileans. Presented at the European
Transport Conference (ETC), Strasbourg, France.
Jara-Díaz, S., Munizaga, M., Greeven, P., Guerra, R., Axhausen, K., 2008. Estimating the value of
leisure from a time allocation model. Transp. Res. Part B 42 (10), 946–957.
Jara-Díaz, S., Munizaga, Guerra, R., 2012. Sensitivity of the value of time to the specification of
income in discrete choice models. Int. J. Trans. Econ. 39 (2), 239–254.
Jara-Díaz, S., Astroza, S., 2013. Revealed Willingness to pay for Leisure: Link between structural
and microeconomic models of time use. Transp. Res. Rec.2382 (1), 75–82.
Jara-Díaz, S., Rosales-Salas, J., 2015. Understanding time use: Daily of weekly data? Transp. Res.
Part A 76, 38–57.
Jevons, W.S., 1871. The Theory of Political Economy, London.
Johnson, M., 1966. Travel time and the price of leisure. Western Econ. J. 4 (2), 135–145.
Juster, F., 1990. Rethinking utility theory. J. Behav. Econ. 19 (2), 155–179.
Juster, F., Stafford, F., 1991. The allocation of time: Empirical findings, behavioral models, and
problems of measurements. J. Econ. Liter. 29 (2), 471–522.
Kaplan, M., 1960. Leisure in America. John Wiley, New York.
Kaplan, M., 1975. Leisure: Theory and Policy. John Wiley & Sons, New York.
88
Kelly, J., 1974. Sociological perspectives and leisure research. Curr. Sociol. 22 (1–3), 127–158.
Kelly, J., 1980. Leisure and quality: Beyond the quantitative barrier in research. In: Goodale, T.L.,
Witt, P.A. (Eds.), Recreation and Leisure: Issues in an Era of Change. Venture Publishing, State
College, Perm., pp. 300–314.
Killingsworth, M., Heckman, J., 1986. Female labor supply: a survey. In: Ashenfelter, O., Layard, R.
(Eds.), Handbook of labor economics, vol. 1, pp. 103–204.
Kim, J., Allenby, G., Rossi, P., 2002. Modeling consumer demand for variety. Market. Sci. 21, 229–
250.
Kimmel, J., Connelly, R., 2007. Mothers’ time choices: caregiving, leisure, home production, and
paid work. J. Human Resour. 42 (3), 643–681.
Kirsh, C., Dixon, B., Bond, M., 1974. A Leisure Study-Canada 1972. In: Published for the Arts and
Culture Branch, Department of Secretary of State by A.E. Design and Cultural Publications,
Toronto, Ontario.
Kitamura, R., 1984. A model of daily time allocation to discretionary out-of-home activities and trips.
Transp. Res. Part B 18 (3), 255–266.
Kitamura, R., Yamamoto, T., Fujii, S., 1996a. A discrete-continuous analysis of time allocation to
two types of discretionary activities which accounts for unobserved heterogeneity. Transport. Traffic
Theory, 431–453.
Kitamura, R., Pas, E.I., Lula, C.V., Lawton, T.K., Benson, P.E., 1996b. The sequenced activity
mobility simulator: an integrated approach to modeling transportation, land use and air quality.
Transportation 23, 267–291.
Konduri, K.C., Astroza, S., Sana, B., Pendyala, R.M., Jara-Díaz, S.R., 2011. Joint analysis of time
use and consumer expenditure data: Examination of two approaches to deriving values of time.
Transp. Res. Rec. 2231, 53–60.
Konrad, K.A., Lommerud, K.E., 2000. The bargaining family revisited. Can. J. Econ./Revue
canadienne d’économique 33 (2), 471–487.
89
Kooreman, P., Kapteyn, A., 1990. On the empirical implementation of some game theoretic models
of household labor supply. J. Human Resour. 25 (4), 584–598.
Koppelman, F.S., Pas, E.I., 1980. Travel-choice behavior: models of perceptions, feelings,
preference and choice. Transp. Res. Rec. 765, 26–32.
Koppelman, F.S., Lyon, P.K., 1981. Attitudinal analysis of work/school travel. Transport. Sci. 15 (3),
233–254.
Koppelman, F.S., Townsend, T.A., 1987. Task allocation among household members: theory and
analysis. In: Paper presented at the Fifth International Conference on Travel Behavior, Aix-en-
Provence, France.
Krueger, A., 2009. Measuring the Subjective Well-Being of Nations: National Accounts of Time Use
and Well-Being. University of Chicago Press, Chicago.
Laisney, F., Beninger, D., 2002. Comparison between unitary and collectivemodels of household
labor supply with taxation, ZEW Discussion Papers, pp. 02–65, ZEW - Zentrum für Europäische
Wirtschaftsforschung / Center for European Economic Research, Mannheim.
Larson, D., Shaikh, S., 2004. Recreation demand choices and revealed values of leisure time.
Econ. Inq. 42 (2), 264–278.
Leuthold, J.H., 1968. An empirical study of formula income transfers and the work decision of the
poor. J. Human Resour. 3, 312–323.
Lew, D., Larson, D., 2005. Accounting for stochastic shadow values of time in discrete-choice
recreation demand models. J. Environ. Econ. Manage. 50, 341–361.
Lew, D., Larson, D., 2012. Economic values for saltwater sport fishing in Alaska: a stated
preference analysis. North Am. J. Fish. Manag. 32 (4), 745–759.
López-Ospina, H., Martínez, F., Cortés, C., 2015. A time-hierarchical microeconomic model of
activities. Transportation 42 (2), 211–236.
90
Lu, X., Pas, E.I., 1997. A structural equation model of the relationships among sociodemographics,
activity participation and travel behavior. In: Presented at the 76th Annual Meeting of the
Transportation Research Record, Washington, D.C.
Lucas, R., Rapping, L., 1970. Real Wages, Employment and Inflation. In: Phelps, E.S. (Ed.),
Microeconomic Foundations of Employment and Inflation Theory. Norton, New York.
Lundberg, G.A., Komarovsky, M., Mclnerny, M.A., 1934. Leisure: A Suburban Study. Columbia
University Press, New York. Lundberg, S., 1985. The Added Worker Effect. J. Labor Econ. 3 (1),
11–37.
Lundberg, S., Pollak, R.A., 1993. Separate spheres bargaining and the marriage market. J. Polit.
Econ. 101 (6), 988–1010.
Manser, M., Brown, M., 1980. Marriage and household decision making: a bargaining analysis. Int.
Econ. Rev. 21 (1), 31–44.
Marsal-Llacuna, M.L., López-Ibañez, M.B., 2014. Smart urban planning: designing urban land use
from urban time use. J. Urban Technol. 21 (1), 39–56.
Marshall, A., 1890. Principles of Economics, London.
McConnell, K.E., 1975. Some problems in estimating the demand for outdoor recreation. Am. J.
Agric. Econ. 57 (2), 330–334.
McConnell, K.E., Strand, I.E., 1981. Measuring the cost of time in recreation demand analysis: an
application to sportfishing. Am. J. Agric. Econ. 63 (1), 153–156.
McElroy, M.B., Horney, M.J., 1981. Nash-bargained household decisions: towards a generalization
of the theory of demand. Int. Econ. Rev. 22 (2), 333–349.
McKinnon, A.L., 1992. Time use for self-care, productivity, and leisure among the elderly
Canadians. Can. J. Occup. Ther. 59 (2), 102–110.
Millward, H., Spinney, J., 2011. ‘‘Active Living” related to the rural-urban continuum: a time-use
perspective. J. Rural Health 27, 141–150.
91
Mincer, J., 1962. Labor Force Participation of Married Women: a Study of Labor Supply. In: Gregg,
Lewis H. (Ed.), Aspects of Labor Economics. Princeton University Press, Princeton, N.J.
Minge-Klevana, W., 1980. Does labor time decrease with industrialization? A survey of time
allocation studies. Curr. Anthropol. 21 (3), 279–298.
Minnen, J., Glorieux, I., van Tienoven, T., 2015. Transportation habits: Evidence from time diary
data. Transp. Res. Part A 76, 25–37.
Morey, E., Rowe, R., Waldman, D., 1995. Assessment of Damages to Anglers and Other
Recreators From Injuries to the Upper Clark Fork River Basin, Revised Report and Rebuttal. State
of Montana natural resource damage program, Hagler Bailly Consulting Inc, Boulder CO.
Morey, E., Rowe, R., Watson, M., 1993. A repeated nested-logit model of Atlantic salmon fishing.
Am. J. Agric. Econ. 75 (3), 578–592.
Morey, E., Shaw, W., Rowe, R., 1991. A discrete-choice model of recreational participation, site
choice, and activity valuation when complete trip data are not available. J. Environ. Econ. Manage.
20 (2), 181–201.
Morgan, K., 1987. Sleep and Aging: A Research-Based Guide to Sleep in Later Life. John Hopkins
University Press, Baltimore.
Morgan, J.N., David, M.H., Cohen, W.J., Brazer, H.E., 1962. Income and Welfare
in the U.S. McGraw-Hill, New York.
Moss, M.S., Lawton, M.P., 1982. Time budget of older people: A window on four lifestyles. J.
Gerontol. 37 (1), 115–123.
Mullahy, J., Robert, S., 2010. No time to lose: time constraints and physical activity in the
production of health. Rev. Econ. Household 8 (4), 409–432.
Munizaga, M., Jara-Díaz, S., Greeven, P., Bhat, C., 2008. Econometric calibration of the joint time
assignment–mode choice model. Transport. Sci. 42 (2), 208–219.
Munizaga, M., Jara-Díaz, S., Olguín, J., Rivera, J., 2011. Generating twins to build weekly time use
data from multiple single day OD surveys. Transportation 38, 511–524.
92
Munshi, K., 1993. Urban passenger travel demand estimation: A household activity approach.
Transport. Res. A 27, 423–432.
Murphy, M., 1978. The value of non-market household production: opportunity cost versus market
cost estimates. Rev. Income Wealth 24 (3), 243–255.
Nerhagen, L., 2000. Mode Choice Behavior. Travel Mode Choice Models and Value of Time
Estimation - A Literature Review. Dalarna University, T&S. Neulinger, J., Crandall, R., 1976. The
Psychology of Leisure: 1975. J. Leisure Res. 8, 181–185.
Neulinger, J., 1981. To Leisure: An Introduction. Allyn and Bacon, Boston.
Nordhaus, W., Tobin, J., 1972. Is Growth Obsolete? In: Economic Growth, Fiftieth Anniversary
Colloquium V, NBER, New York.
Oort, C., 1969. The evaluation of travelling time. J. Trans. Econ. Policy 3 (3), 279–286.
Ott, N., 1992. Intrafamily Bargaining and Household Decisions, Berlin/Heidelberg.
Owen, J., 1971. The demand for leisure. J. Polit. Econ. 79 (1), 56–76.
Palmquist, R., Phaneuf, D., Smith, V.K., 2010. Short run constraints and the increasing marginal
value of time in recreation. Environ. Resource Econ. 46 (1), 19–41.
Parker, S., 1978. The sociology of leisure: progress and problems. Br. J. Sociol. 26, 91–101.
Parsons, G., Kealy, M., 1992. Randomly drawn opportunity sets in a random utility model of lake
recreation. Land Econ. 68, 93–106.
Parsons, G., Needleman, M., 1992. Site aggregation in a random utility model of recreation. Land
Econ. 68, 418–433.
Pas, E.I., Harvey, A.S., 1997. Time use research and travel demand analysis and modeling. In:
Stopher, P., Lee-Gosselin, M. (Eds.), Understanding Travel Behavior in an Era of Change. Elsevier
Science Ltd., Oxford, pp. 315–338.
Pawlak, J., Polak, J., Sivakumar, A., 2015. Towards a microeconomic framework for modelling the
joint choice of activity–travel behaviour and ICT use. Transp. Res. Part A 76, 92–112.
93
Pember-Reeves, M., 1913. Round About a Pound a Week. Bell, London.
Pencavel, J., 1986. Labor supply of men: a survey. In: Ashenfelter, O., Layard, R. (Eds.), Handbook
of labor economics, vol. 1, pp. 3–102.
Pentland, W., Harvey, A., Lawton, M., McColl, M.A., 1999. Time Use Research in the Social
Sciences. Kluwer Academic Publishers Group, New York, USA.
Pérez, J., 1997. Socioeconomía. Editorial Trotta, Madrid.
Pinjari, A.R., Bhat, C.R., 2011. Activity-based travel demand analysis. In: de Palma, A., Lindsey, R.,
Quinet, E., Vickerman, R. (Eds.), A Handbook of Transport Economics, vol. 10. Edward Elgar
Publishing, pp. 213–248.
Pollak, R., Wachter, M., 1975. The relevance of the household production function and its
implications for the allocation of time. J. Polit. Econ. 83 (2), 255–277.
Pollak, R., 2003. Gary Becker’s Contributions to Family and Household Economics. Rev. Econ.
Household 1 (1), 111–141.
Prasch, R., 2000. Reassessing the labor supply curve. J. Econ. Issues 34, 679–
92.
Reid, M., 1934. Economics of Household Production. J. Wiley & Sons, New York.
Robinson, J., Andreyenkov, V., Patrushev, V., 1989. The Rhythm of Everyday Life: How Soviet and
American Citizens Use Time. Westview Press, London.
Ronald, N.A., Arentze, T.A., Timmermans, H.J.P., 2008. Modelling social aspects of travel
behaviour: a preliminary review. In: Proceedings of the 9th DDSS Conference.
Rosales-Salas, J., Jara-Díaz, S., 2017. A time allocation model considering external providers.
Transp. Res. Part B (in press).
Samuelson, P.A., 1956. Social Indifference Curves. Quart. J. Econ. 70, 1–22.
Schliewen, R.E., 1977. A Leisure Study - Canada 1975. Department of the Secretary of State,
Ottawa.
94
Sen, A., 1984. Economics and the Family. In: Resources, Values and Development. Harvard
University Press, Cambridge, MA. and London.
Sen, A., 1990a. Cooperation, Inequality, and the Family. In: Folbre, N. (Ed.), The Economics of the
Family. Cheltenham/Brookfield, pp. 171–186.
Sen, A., 1990b. Gender and Cooperative Conflicts. In: Tinker, I. (Ed.), Persistent Inequalities –
Women and Development, Oxford/New York/Toronto, pp. 195–223.
Shaikh, S., 1998. A Whale of a Good Time: Exploring Flexibility in The Recreation Demand Model.
In: Paper presented at the American Agricultural Economics Association Annual Conference, Salt
Lake City UT.
Shaw, S., 1982. The sexual division of leisure: Meanings, Perceptions and the distribution of time A
thesis submitted to the department of sociology and Anthropology. Carlton University, Ottawa.
Sirageldin, I.A.H., 1973. Non-Market Components of National Income. Survey Research Center,
Institute for Social Research, University of Michigan.
Small, K., 1982. The scheduling of consumer activities: Work trips. Am. Econ. Rev. 72 (3), 467–479.
Smith, V.K., Desvousges, W.H., McGivney, M.P., 1983. The opportunity cost of travel time in
recreation demand models. Land Econ. 59 (3), 259–277.
Solberg, E., Wong, D., 1992. Family time use: leisure, home production, market work, and work
related travel. J. Human Resour. 27 (3), 485–510.
Sorokin, P., Berger, C., 1939. Time Budgets of Human Behaviour. Harvard University Press;
Humphrey Milford, Cambridge, Massachusetts; London.
Spissu, E., Pinjari, A., Bhat, C., Pendyala, R., Axhausen, K., 2009. An analysis of weekly out-of-
home discretionary activity participation and time-use behavior. Transportation 36 (5), 483–510.
Stafford, F., Cohen, M., 1974. A model of work effort and productive consumption. J. Econ. Theory
7 (3), 333–347.
Stolzar, M., 2006. Paying for sleep: an economic analysis of time allocation and productivity among
college students Magister Thesis. Department of Economics, Stanford University, Stanford, USA.
95
Stopher, P.R., Vadarevu, R.V., 1995. An investigation of the effect of life cycle on household travel
behavior. In: Presented at the 8th REAAA Conference, Taipei, Taiwan.
Szalai, A., 1972. Time. Daily Activities of Urban and Suburban Populations. Mouton, The
Hague/Paris.
Szalontai, G., 2006. The demand for sleep: a South African Study. Econ. Model. 23, 854–874.
Timmermans, H., Zhang, J., 2009. Modeling household activity travel behavior: examples of state of
the art modeling approaches and research agenda. Transp. Res. Part B 43 (2), 187–190.
Train, K., 1998. Recreation demand models with taste differences over people. Land Econ. 74 (2),
230–239.
Train, K., McFadden, D., 1978. The goods/leisure trade-off and disaggregate work trip mode choice
models. Transp. Res. 12, 349–353.
Tune, G.S., 1968. Sleep and wakefulness in normal adult humans. Br. Med. J. 2, 269–271.
Turner, B.S., 1996. Social Theory. Blackwell, Oxford.
Turner, T.H., Drummond, S.P.A., Salamat, J.S., Brown, G.G., 2007. Effects of 42 hr sleep
deprivation on component processes of verbal working memory. Neuropsychology 21, 787–795.
UN Economic Commission for Europe, 2010. In-Depth Review on Time Use Surveys in Different
Countries, Geneva.
Van Dongen, H.P., Maislin, G., Mullington, J.M., Dinges, D.F., 2003. The cumulative cost of
additional wakefulness: dose-response effects on neurobehavioral functions and sleep physiology
from chronic sleep restriction and total sleep deprivation. Sleep 26 (2), 117–126.
Van Dongen, H.P., Vitellaro, K.M., Dinges, D.F., 2005. Individual differences in adult human sleep
and wakefulness: Leitmotif for a research agenda. Sleep 28 (4), 479–496.
Van Wissen, L., 1989. A dynamic model of household interactions in activity patterns. In: Presented
at the International Conference on Dynamic Travel Behavior Analysis, Kyoto.
96
Vermeulen, F., 2002. Collective household models: principles and main results. J. Econ. Surv. 16
(4), 533–564.
Von Thiele, U., Hasson, H., 2011. Employee self-rated productivity and objective organizational
production levels: effects of worksite health interventions involving reduced work hours and physical
exercise. J. Occup. Environ. Med. 53 (8), 838–844.
Voss, J., 1967. The definition of leisure. J. Econ. Issues 1, 91–106.
Walras, L., 1889. Eléments D’économie Politique Pure. Lausanne, Paris, Leipzig.
Walsh, J.K., Engelhardt, C.L., 1999. The direct economic costs of insomnia in the United States for
1995. Sleep 22, 386–393.
Wardman, M., 1988. A comparison of revealed and stated preference models of travel behaviour. J.
Trans. Econ. Policy 22, 71–91.
Wardman, M., 1997. A Review of Evidence on the Value of Travel Time in Great Britain. Working
Paper 495, Institute for Transport Studies, Leeds: University of Leeds.
Wegge, T., Carson, R., Hanemann, W., 1991. Site Quality and the Demand for Sport Fishing in
Southcentral Alaska, Report. Jones & Stokes Associates Inc, Sacramento, CA.
Weinrobe, M., 1974. Household production and national production: an improvement of the record.
Rev. Income Wealth 20 (1), 89–102.
Wells, R., Maher, M., 1996. Time and Surplus Allocation Within Marriage, Research Paper Series
1372, Stanford University.
Wetzell, D., 2002. On some unappreciated implications of Becker’s time allocation model of labor
supply. Econ. Lett. 75, 219–225.
Williams, R., 1977. Psychological approaches to the study of leisure. Bull. Br. Psychol. Soc. 30, 8–
12.
Woolley, F.R., 1988. A Non-cooperative Model of Family Decision Making, Working Paper TIDI 125,
London.
97
Wyatt, J.K., Ritz-De Cecco, A., Czeisler, C.A., Dijk, D.J., 1999. Circadian temperature and
melatonin rhythms, sleep, and neurobehavioral function in humans living on a 20-h day. Am. J.
Physiol. 277 (4), R1152–R1163.
Yamamoto, T., Kitamura, R., 1999. An analysis of time allocation to in-home and out-of-home
discretionary activities across working days and non- working days. Transportation 26 (2), 211–230.
Zerubavel, E., 1981. Hidden Rhythms: Schedules and Calendars in Social Life. University of
Chicago, Chicago.
98
OPINIÓN DE LOS ANALISTAS RESPECTO DE LA INFORMACIÓN PROPORCIONADA POR LAS IFRS
Luis Felipe Madariaga Diana López Jorge Rojas Araise [email protected] [email protected] Universidad Finis Terrae Universidad Andrés Bello
RESUMEN
Históricamente la interacción entre información contable y la valorización de
empresas ha sido dificultosa. La crítica principal de analistas y usuarios de la
información contable para la valorización de empresas es en torno a la calidad de
la información, principalmente en los valores de los activos y pasivos de las
empresas. Esto provoca que, para efectos de la generación de expectativas por
parte de los inversionistas en la adquisición de acciones en el mercado bursátil, la
información de los estados financieros de las empresas sea considerada como un
factor más y con relevancia solo desde el punto de vista como fuente de
información base para la generación de proyecciones, otorgándole mayor valor a
las condiciones macroeconómicas y de mercado de la empresa en análisis.
Palabras Clave: Información Financiera, Análisis Financiero y Valorización de
Empresas.
Abstract
Historically, the interaction between accounting and the business valuation has been
difficult because the main criticism of financial analysts and users of accounting
information for the valuation of companies is about the quality of information, mainly in the
value of assets and liabilities of companies. This causes for purposes of generating
expectations from investors in the acquisition of shares in the stock market, the information
in the financial statements of companies is considered an important factor and only from
the point of view as based information source for generating projections, giving greater
value to macroeconomic conditions and market analysis company.
Keywords: Financial Reporting, Financial Analysis and Business Valuation.
99
Introducción
Anticiparse al valor de un activo es un desafío, en especial cuando se trata de
proyectar el precio de una empresa, la cual finalmente es un conjunto de activos
materiales e inmateriales que son gestionados con el fin de maximizar su valor
para los propietarios. Dicha aproximación al valor de una empresa tiene asociada
una serie de factores, que van desde perspectivas económicas hasta aquellos que
tienen relación con la capacidad de gestión de los ejecutivos de las empresas.
Es en este contexto que las técnicas de valorización tienen como principal función
determinar el valor de la empresa en un instante del tiempo, por lo que se
constituyen en el punto de partida para que los inversionistas se aproximen al
precio objetivo de las acciones de la compañía evaluada y, por lo tanto, al valor
bursátil de la misma. Estas metodologías utilizadas son variadas y comprenden
desde la utilización de índices financieros (ratios) comparables, descuento de
flujos de caja y opciones reales. En los tres casos, el denominador común es que
en su utilización se requiere información contable de la empresa.
Cabe señalar que la información Contable – Financiera permite al analista conocer
la situación pasada de la empresa, además de constituirse en la fuente de
información base para la realización de las proyecciones respecto de la situación
futura. Es por ello que el grado de fiabilidad de la información contable es
preponderante para la valorización y formación de expectativas por parte de los
agentes económicos.
La necesidad de información por parte de los diferentes agentes, especialmente
de aquellos que tienen por objetivo adquirir parte de la propiedad de la empresa,
ha sido una preocupación y ocupación constante por parte de los organismos
supervisores y para los departamentos de contabilidad. Pues, tal como señala
Amat y Oliveras (2004), lo principal en la contabilidad es que las cuentas sean
fiables, lo que se logra a través del objetivo de la imagen fiel que ha de alcanzar.
100
En términos de información Contable – Financiera para la valorización de
empresas, se señala que en el contexto de los mercados de capitales es
importante recordar que en la generación de información financiera se requieren
dos actores: los emisores y los que la utilizan con la expectativa de que esto
ayudará a mejorar sus decisiones financieras (Tasios & Bekiaris, 2012). Es por lo
anterior, que la calidad de los informes financieros se constituye en una
preocupación fundamental no solo para los usuarios finales, sino para toda la
sociedad, ya que afecta las decisiones económicas que pueden tener un impacto
significativo, no solo en el mercado de capitales sino a nivel de la economía en
general.
En el contexto de la determinación del valor de la empresa, a través de las
diferentes metodologías utilizadas, el estado de situación financiera debiese
reflejar el valor de la empresa en un momento del tiempo. En el mismo sentido,
(Castellanos & Heiberg, 2010) señalan que la valorización de los elementos de los
estados financieros a su valor de mercado permitirá el surgimiento de diferencias
con su valor inicial, lo que implicaría que las empresas reconozcan pérdidas y
ganancias en el resultado del ejercicio, ocasionando que los usuarios dispongan
de una información financiera más completa.
Si se analizan las Normas Internacionales de Información Financiera, el común
denominador es el concepto de Valor Razonable. El cual es mencionado en un
número importante de normas, además de la emisión de la norma específica
relativa al tema (NIIF 13). En términos concretos, la convergencia a las Normas
Internacionales de Información Financiera (IFRS) tiene como unos de los
principales cambios la utilización de valores razonables (Fair Value). Lo que de
acuerdo con lo señalado por Silva (2011) se constituye en un cambio de
paradigma, mientras que la justificación de objetividad del modelo del costo es
insuficiente para proveer adecuada información a los usuarios de la información
contable de las empresas.
101
Según los argumentos señalados, cabe indicar que la presente investigación
busca establecer la percepción que poseen los analistas financieros chilenos
respecto del impacto de la adopción por parte de las empresas a las Normas
Internacionales de Información Financiera (IFRS).
Objetivo: Conocer la percepción de los analistas financieros respecto de la
convergencia a las Normas Internacionales de Información Financiera y su
evaluación respecto de la información proporcionada por los reportes preparados
sobre la base de los mencionados estándares.
La metodología utilizada en el presente estudio será de tipo exploratorio. Lo que
implica la utilización de una encuesta, la cual se encuentra estructurada sobre la
base de 27 preguntas, en las que se utiliza la escala de Likert (desde Muy de
Acuerdo hasta Muy en Desacuerdo). El instrumento fue aplicado a un grupo de
100 analistas de empresas, que utilizan como insumo principal estados financieros
para su proceso de generar precios objetivos de acciones y realizar análisis
financieros de empresas.
La encuesta se comenzó a aplicar a partir de la tercera semana de marzo y cerró
la última semana de abril de 2017. El instrumento se aplicó de manera online, para
lo cual se realizó el envío del link correspondiente a través de correo electrónico al
grupo de interés para la investigación.
La encuesta fue contestada por 76 personas, en ese contexto se seleccionaron 20
encuestados bajo el criterio que estos habían utilizado para su análisis estados
financieros bajo PCGA.
Finalmente, con el objetivo de establecer consistencia interna de los ítems del
instrumento (encuesta) se utilizó el Alfa de Cronbach, de manera de determinar la
ausencia relativa de errores de medición en el instrumento de medida.
102
Marco Referencial
La divulgación de información estratégica de las empresas refleja influencias
nacionales, regionales y anuncios respecto de la situación internacional.
Específicamente, las empresas ven en la divulgación de dicha información una
forma de superar un conservadurismo respecto de las revelaciones que
normalmente se realizan al mercado (Gary, Clare, & Sidney, 1995). Además, los
señalados autores concluyen que divulgar más información financiera tiene
diferentes efectos dependiendo del sector económico, por ejemplo, en el sector
industrial la influencia de la información no financiera es significativa.
En el contexto actual de los mercados de capitales (dinámicos e
internacionalizados), que la información Contable – Financiera de las diferentes
entidades se hace relevante para la toma de decisiones y primeramente para la
elaboración de proyecciones, en definitiva para la generación de expectativas de
precios respecto de un activo particular. Esta situación, ha planteado un desafío,
no solo para los organismos reguladores sino además para los encargados de
emitir normativa contable en los países, ya que se requiere que la información no
solamente fluya desde los diferentes agentes que componen el mercado de
capitales, sino que también debe cumplir con ser uniforme, fiable y comparable, lo
cual finalmente la hace comprensible no solo para los usuarios internos o externos
que desarrollan su labor en el país, sino que también debe poder ser utilizada por
organismos internacionales o personas de otras nacionalidades. Es por ello que la
adopción de las NIIF ya es un tema de importancia mundial entre los distintos
países, debido a la búsqueda de la uniformidad, fiabilidad y comparabilidad de los
estados financieros de las empresas (Enoch, 2012).
La utilización de información completa es particularmente relevante en el análisis
financiero y la valorización de empresas. La importancia de la información
financiero - Contable, radica en la necesidad de evitar problemas de información
103
asimétrica, permitiendo anticipar problemas de Selección Adversa10 y Riesgo
Moral11, en estos casos, ya sea al momento de otorgar un crédito, valorizar un
bono o decidir la adquisición de un instrumento de patrimonio. Cabe señalar que la
existencia de estos problemas puede conllevar a situaciones tales como:
existencia de información relevante oculta en un mercado que haga posible llegar
a un precio de equilibrio ineficiente, lo que implique intercambio por parte de los
agentes económicos, que puede incluso llegar a destruir los mercados. Además, si
estos presentan este tipo de características los retornos sociales y privados
difieren (Akerlof, 1970). A lo señalado, se debe agregar el hecho de que en
mercados con información imperfecta, donde el precio pueda ser utilizado como
mecanismo de “screening” o de señalización, se producen distorsiones que
impiden inevitablemente (esta palabra es importante) una adecuada asignación de
recursos (Stiglitz & Weiss, 1981).
Desde de la perspectiva del análisis financiero y la valorización de empresas, la
búsqueda de la convergencia a los estándares internacionales de información
financiera es coherente con la necesidad de evitar problemas como los señalados
en el párrafo anterior. Además es relevante que los profesionales que realizan
dichos análisis y valorizaciones conozcan de los fundamentos normativos. En este
sentido, trabajos (Álvarez & Rodríguez, La valorización bursátil en el marco de las
NIIF. Estudio empírico y análisis del caso Dermoestética., 2011), señalan que en
muchas ocasiones, en los mercados de capitales (valores) se olvidan los
fundamentos, en el primer caso se producen omisiones conscientes o
inconscientes de los principios contables que rigen en algún momento del tiempo.
10
Selección Adversa: Se caracteriza por el beneficio de una persona informada en un proceso de transacción con otra menos informada, quien no sabe sobre una característica no observada de la persona informada. 11
Riesgo Moral: Oportunismo caracterizado por una persona informada que toma ventaja sobre otra menos informada a través de una acción no observada.
104
Factores que inciden en los precios de activos
Los estudios de Bachelier (1900) identifican como factores determinantes de los
movimientos de los instrumentos financieros en los mercados bursátiles: los
acontecimientos pasados, actuales e incluso los acontecimientos futuros, además
de señalar que este tipo de instrumentos seguían movimientos del tipo Random
Walk. Estudios posteriores comienzan a incorporar el tema de las expectativas, su
influencia en los mercados bursátiles e identifican factores como las “expectativas
del mercado”, “precios a plazo” como factores incidentes en las cotizaciones
(Working, 1949). Por otra parte, las investigaciones referentes al comportamiento
de los precios bursátiles, prosiguen con las investigaciones tendientes a demostrar
que los movimientos de los precios de la bolsa pueden tener ciertas regularidades
(tendencias, ciclos) (Samuelson, 1965). Posteriormente, los estudios hacen
referencia a la eficiencia de los mercados de capitales, específicamente a que un
mercado de capitales eficiente es aquel donde el precio de los activos siempre
refleja plenamente la información disponible (Fama, 1970). Las referencias
teóricas señaladas, tienen por objetivo evidenciar que no se desconoce el hecho
que existe una multiplicidad de factores que inciden en que el valor bursátil de las
empresas.
Valorización de empresas e información contable
La calidad de la información financiera es un requisito fundamental para el
funcionamiento eficaz de los mercados de capitales y del mercado de valores en
particular, ya que se constituye en facilitadora de la toma de decisiones por parte
de los diferentes agentes económicos. Además de lo señalado, la información
financiera no debe inducir a errores o provocar confusiones en los usuarios. En
este sentido estudios al respecto señalan cuatro métodos que han sido utilizados
para evaluar la calidad de los informes financieros: métodos de acumulación,
modelos de relevancia del valor, presencia de elementos específicos en los
informes financieros y métodos de operacionalización de las características
cualitativas de la información financiera de las empresas. Por otro lado, los
105
principales factores que podrían mejorar la calidad de la información financiera son
un marco de supervisión estricta, la validación de la calidad de las auditorías
realizadas por empresas de contabilidad y la formación del personal de las
empresas (Tasios & Bekiaris, 2012).
La determinación del valor de la empresa puede ser utilizada para: comprar
acciones de la misma, otorgar un préstamo, fusionar dos empresas, reestructurar
la organización, negociar la salida de alguno de los socios. En este sentido, se
suele señalar que la contabilidad no es válida para determinar el “verdadero valor”
de una empresa, por cuanto su criterio de valorización de activos muchas veces
difiere del valor económico del recurso disponible y, en general, no contempla en
forma explícita la capacidad de generación de beneficios futuros. La nueva
normativa contable en su marco conceptual IASB (2010) señala: “El objetivo de la
información financiera con propósito general es proporcionar información
financiera sobre la entidad que informa que sea útil a los inversores, prestamistas
y otros acreedores existentes y potenciales para tomar decisiones sobre el
suministro de recursos a la entidad. Esas decisiones conllevan comprar, vender o
mantener patrimonio e instrumentos de deuda y proporcionar o liquidar préstamos
y otras formas de crédito”.
Además de lo anterior, el Marco Conceptual aclara un punto importante respecto
de la información contable actual y que tiene directa relación con las necesidades
de información de los analistas y evaluadores de empresas, en este párrafo el
Marco Conceptual de International Accounting Standards Board (2010) expresa:
“Para evaluar las perspectivas de entrada de efectivo neta futura de una entidad,
inversores, prestamistas y otros acreedores existentes o potenciales necesitan
información sobre los recursos de la entidad, derechos de los acreedores contra la
entidad y la medida en que la gerencia y el órgano de gobierno han cumplido
eficiente y eficazmente con sus responsabilidades relacionadas con el uso de los
recursos de la entidad”.
106
Los postulados del Marco Conceptual tienen importancia en el contexto de la
valorización de empresas, dado las necesidades de información que estos
procesos requieren. Y no solo lo anterior se constituye en un avance en el
contexto de mejorar las técnicas de valorización de empresas, ya que lo
fundamental en cuanto a información contable (reconocimiento, valorización,
registro y revelaciones) está contenido en las diferentes normas contables
promulgadas por la IASB (NIC, NIIF), que hacen mención y señalan como
elemento de valorización el “fair value”, concepto relevante en la armonización de
los criterios utilizados por las finanzas en la valorización de empresas y los
criterios contables de reconocimiento y medición tanto de activos como pasivos.
Factores considerados en la valorización de empresas (cálculo de precios
objetivos)
Es un hecho que los requisitos de información contable financiera por parte de
analistas, es contar con un modelo de información sólido y amplio, basado en la
realidad práctica de estos profesionales. Además, dicha información debe permitir
la construcción de pronósticos confiables y valiosos sobre la evolución futura de
una empresa, y por lo tanto la emisión de reportes de inversión fiables para los
inversionistas.
La valorización de empresas y, por ende, la generación de precios objetivos de
acciones y expectativas respecto del valor de un activo, se construye a partir de
una serie de factores, tanto internos como externos. En general los factores
considerados en la valorización de activos y empresas son los siguientes: tasas de
interés externas, crecimiento mundial, ambiente geopolítico, precios commodities,
actividad local, tendencia inflacionaria, tasas locales, tipo de cambio, panorama
político, precio cobre, términos de intercambio no cobre, valorizaciones.
Las metodologías de valorización de empresas son variadas y van desde el
descuento de flujos, opciones reales, ratios comparables (relativos) y modelos
basados en las oportunidades de inversión de la empresa. No obstante lo anterior,
107
existe consenso en que la aplicación de cada uno de estos modelos dependerá de
la empresa en análisis y los distintos objetivos especificados por el analista. En la
actualidad la técnica predominante en su utilización es la de flujo de caja libre
descontado.
Cada una de las técnicas antes señaladas tiene un aspecto en común: requieren
de información contable de calidad de la empresa en análisis. Lo que es coherente
con lo planteado por Galindo (2005), que la valoración no es sinónimo de
comprobación. Es un proceso distinto e independiente, cuyos cálculos se efectúan
una vez que se cuenta con la información necesaria. Esta última frase se
constituye en una motivación en el contexto de la presente investigación, producto
que es el punto de convergencia entre la contabilidad, las técnicas de valorización
y los inversionistas.
En este contexto, la valorización financiera de un activo permite aproximarse al
valor justo de un bien, activo, proyecto o empresa. Su metodología es similar en
todos los casos, solo se debe tener en consideración que cambia la forma en que
se determinan los beneficios futuros (que se espera genere el activo) y el criterio
de decisión que se utilizará. La comprensión y el dominio de la técnica de
valorización es solo el punto de partida, lo que finalmente hace la diferencia es la
capacidad para definir las variables que determinaran los flujos de caja futuros de
la empresa y la posterior proyección de estos (Ferrari, Momente, & Reggiani,
2012).
Descuento de flujos
Esta metodología se basa en determinar el valor de la empresa (activos) a través
de calcular el valor actual de los excedentes de caja que generaran. No obstante,
autores como Galindo (2005) señala que este tipo de modelos adolece de una
debilidad práctica, puesto que posee un bajo respaldo empírico. Además de lo
anterior, es necesario señalar que este modelo considera la existencia de
información completa respecto de los beneficios de la empresa, la política de
108
dividendos, las inversiones futuras. Lo que es difícil en los mercados de capitales y
de valores, aun cuando los organismos reguladores se esfuercen en ese sentido.
Lo anterior implica dificultades en la aplicación de este modelo, dado que la
calidad de las estimaciones sobre flujos económicos depende directamente de la
información a partir de las cuales se realizaron.
Factor de Conversión
El modelo se basa en un valor estimado de la empresa en función de series
históricas o el valor bursátil de la empresa en un instante determinado. A partir de
lo anterior, el factor de conversión determina una rentabilidad esperada de las
inversiones y una tasa de descuento constante (Tasa de Costo de Capital de la
empresa), esta metodología señala al analista si debe corregir el valor estimado
inicial por exceso o por defecto. No es mucho más lo que ofrece en la práctica
este método. Su naturaleza prospectiva le confiere el inconveniente principal de
los métodos dinámicos, aunque ofrece un valor basado en métodos estáticos.
Oportunidades de Inversión
Este modelo relaciona las posibilidades de inversiones adicionales futuras con las
inversiones actuales, considerando las primeras como un factor que incide en la
generación de rentabilidades por estas últimas, debido principalmente a la
existencia de sinergias y economías de ámbito. Es por lo anterior, que el modelo
específico que el beneficio esperado de las inversiones proyectadas no tiene por
qué ser atribuible exclusivamente a tales inversiones, sino que también al
incremento de rentabilidad en las inversiones actuales.
En estos tres modelos, es importante considerar lo siguiente:
a) Requieren información contable como base para el cálculo de los flujos de
cajas futuros de la empresa, además de requerir revelaciones de datos respecto
de planes de inversión, política de dividendos, etc.
109
Es importante considerar que para la proyección de flujos de caja futuros, se
requiere al menos de tres años de información contable para poder caracterizar
con claridad las variables relevantes para la proyección de los flujos (ingresos,
costos, cuentas por cobrar, inversión de reposición, depreciación, capital de
trabajo, deudas, entre otras), por lo que una mayor información contable financiera
implica mejores proyecciones. Es importante señalar que con información contable
se hace mención no solo a la información contenida en los estados financieros de
carácter cuantitativo, sino que además de la información contenida en las
relevaciones particulares y las notas explicativas. Lo que a partir de la
convergencia a los estándares internacionales de información financiera debiese
reflejarse en mejores estimaciones por parte de los analistas.
b) Determinación de la tasa de Costo Capital Promedio Ponderada. Un punto
importante en la determinación del valor de una empresa (activo), lo constituye el
cálculo de la tasa de costo de capital relevante para el descuento de los flujos de
caja de la empresa. Para lo que se requiere que algunas de las variables
necesarias para su determinación estén valoradas a valores de mercado (deuda y
patrimonio). En el caso de la deuda, para efectos de la determinación de la tasa de
costo capital se utilizan los pasivos de la empresa que cancelan intereses. La
aplicación de la Norma NIC 39, en cuanto a reconocimiento y valorización
posterior de los pasivos financieros de la empresa, se constituye en un avance en
la convergencia entre el criterio financiero económico y el contable, producto que a
partir de dicha norma los pasivos financieros de las empresas se reconocen a
valor de mercado, es decir se valoriza el valor de la deuda teniendo en cuenta la
tasa efectiva (TIR).
Si se considera que el patrimonio utilizado para la determinación del costo de
capital de la empresa corresponde al patrimonio bursátil, el cual refleja las
preferencias de los inversionistas a través del valor que estos están dispuestos a
transar las acciones de la empresa en el mercado, la convergencia a las IFR’S
110
también tendría efectos sobre este, ya que inversionistas que cuenten con mayor
información respecto de la empresa evaluada podrán generar un mejor análisis y
por ende determinar de mejor forma las proyecciones de valor de las acciones12.
Percepción de la información financiera proporcionada por las NIIF
El cambio normativo que implicó la adopción de las IFRS, de acuerdo con la
literatura revisada, tuvo diferentes efectos y percepciones por parte de los actores
del mercado. Ejemplo de esto es lo sucedido en términos de las empresas que
cotizan en la Unión Europea, donde el proceso de convergencia no solo consistió
en modificar metodologías respecto del registro contable y la valorización de las
partidas que comprenden el hecho económico social, sino que supuso un cambio
de filosofía al momento de presentar la información contable financiera de la
empresa (Álvarez & Rodríguez, 2011).
Los efectos de las normas contables en la economía y por ende en el valor de los
activos, pueden diferenciarse en dos grupos: los provenientes de valorizaciones y
criterios contables que se producen sobre los estados financieros y, por otro, los
efectos derivados de las consecuencias de las decisiones tomadas sobre
percepciones. Otros antecedentes revisados, señalan que en el caso de Alemania,
los inversores perciben una mejor calidad de la información de las utilidades de las
empresas con informes basados en las NIC, en relación con la normativa contable
local (Ferrari, Momente, & Reggiani, 2012).
Por otra parte, estudios realizados en Australia a través del uso de dos encuestas,
han explorado las percepciones de las grandes empresas que cotizan en el
mercado bursátil de ese país. Las consultas se centraron en la complejidad de las
NIIF y en los resultados de dichos instrumentos predominó la postura de que la
adopción de IFRS ha permitido mejorar la calidad percibida de los estados
financieros entre los usuarios de ellos. Por otra parte, la investigación concluye
12
Se debe considerar que estas proyecciones actúan con rezago en los mercados bursátiles.
111
que un número importante de encuestados eran más partidarios de la posición de
que la adopción de las NIIF ha reducido la calidad de la información financiera que
por la posición que la adopción había proporcionado una mejora en la calidad.
Entre los 2.008 encuestados, sin embargo, no había ni un fuerte apoyo a la
posición de que la adopción de las NIIF ha mejorado la calidad de la información ni
de la posición que había reducido la calidad (Pawsey, 2008).
Otro de los hallazgos de la investigación señalada, es que la percepción de la falta
de relevancia de los estados financieros bajo los estándares de las NIIF, es
particularmente en las áreas relativas a instrumentos financieros, los pagos
basados en acciones, deterioro y activos intangibles (Pawsey, 2008).
Otras consideraciones proporcionadas por la literatura corresponden a que las
críticas principales respecto de las NIIF, son: demasiado dependientes de
supuestos, también restrictivas, carecían de especificidad y no dieron lugar a la
difusión de información comprensible y relevante para los usuarios de los estados
financieros (Ferrari, Momente, & Reggiani, 2012).
Análisis y discusión
El instrumento fue estructurado a través de 27 preguntas, las cuales se crearon de
acuerdo con una escala de Likert con cinco niveles, entre el “Muy de Acuerdo” y el
“Muy en Desacuerdo”. Las preguntas se enfocan en conocer la percepción de los
analistas financieros respecto de la utilidad práctica de las IFR’S en los procesos
de valorización de empresas y, por ende, en la determinación de precios objetivos
para los instrumentos de patrimonio emitidos y transados por las empresas. En
ese contexto la encuesta tuvo una cobertura de 74 analistas financieros, los cuales
desempeñan funciones en corredoras de bolsa y bancos. Del universo señalado,
se seleccionaron veinte cuestionarios debido a que dichos analistas habían
utilizado previamente estados financieros elaborados y presentados bajo PCGA.
112
Ante la pregunta referente a “La información financiera presentada bajo los
estándares de las Normas Internacionales de Información Financiera (IFRS)
aumenta significativamente la calidad percibida de los estados financieros de las
empresas”, un 70% de los consultados se mostró “muy de acuerdo” o “de acuerdo”
con dicha aseveración, mientras que un 25% señaló estar indiferente con dicha
aseveración, es decir respondió en el “ni acuerdo, ni en desacuerdo”. En este
mismo sentido, ante la consulta “La convergencia a IFRS, mejora la calidad de la
información financiera”, un 80% de los consultados respondió estar muy de
acuerdo y de acuerdo con dicha aseveración y disminuye de un 25% a un 15% la
opinión neutra (ni acuerdo ni desacuerdo).
Con el objetivo de validar las respuestas anteriores, el diseño del cuestionario
incorporó la pregunta respecto de si la convergencia a IFRS, ha dado lugar a una
disminución de la calidad de la información financiera: un 75% de los consultados
señaló estar en desacuerdo o muy desacuerdo por lo planteado en la pregunta. La
concentración de respuestas en estas categorías refuerza el hecho de la favorable
percepción de los analistas respecto de la calidad percibida por ellos de la
información presentada bajo los estándares de las Normas Internacionales de
Información Financiera.
En el contexto de la consulta respecto del nivel de dificultad acerca de la
comprensión de los estados financieros bajo la norma, el 50% de los consultados
respondió estar ya sea muy de acuerdo o de acuerdo con dicha aseveración, lo
que es positivo dado que aun percibiendo un mayor nivel de dificultad las
preguntas relativas a la percepción de calidad presentan porcentajes de
aceptación bastante altos. En este mismo sentido, ante la pregunta respecto del
mayor requerimiento de conocimientos contables para el análisis de la
información, un 85% de los consultados se mostró de acuerdo o muy de acuerdo
con dicha aseveración, situación que implica que se percibe que los analistas
financieros requieren conocer más respecto de las técnicas contables implícitas en
la presentación de los estados financieros bajo IFRS.
113
Respecto de ámbitos más puntuales de la información financiera presentada bajo
los estándares de IFRS, como por ejemplo, lo que tiene relación con la medición
de pasivos financieros a tasa efectiva y sus implicancias en el análisis del
endeudamiento de la empresa. Un 70% de los consultados señaló estar muy de
acuerdo o de acuerdo, que la valorización realizada a tasa efectiva permite
mejorar la fiabilidad de dicha información en el contexto del uso para determinar el
nivel de endeudamiento de la empresa. En este sentido, un 50% estuvo muy o de
acuerdo con el hecho que esto ha permitido simplificar la determinación de la
deuda a valor a mercado y, como consecuencia, la tasa de costo de deuda de la
empresa.
Otro aspecto considerado dentro de las preguntas, corresponde al hecho relativo
al incremento de las revelaciones a partir del proceso de adopción de IFRS, en
este sentido se les consultó a los analistas si dicha situación ha permitido evaluar
y realizar un análisis más detallado de las empresas y establecer mejores
supuestos de proyección, las respuestas de los analistas se concentraron en el
grado de acuerdo y muy de acuerdo con un 75%. A su vez, al ser consultados por
la información contenida en el estado de resultados integrales, el 60% de los
consultados considera que este permite visualizar de mejor forma las actividades
generadoras de ganancias de las empresas evaluadas.
En relación con preguntas relativas a que “la información preparada mediante
IFRS permite conocer de mejor forma el valor de las diferentes partidas contables,
lo que se ve reflejado en el valor de las acciones”. Un 70% de los consultados
respondió estar de acuerdo o muy de acuerdo con esta aseveración. Esto se
refleja a su vez, en la consulta relativa a si el proceso de adopción de IFRS ha
permitido una mayor transparencia de información: un 80% de los analistas
consultados señala estar de acuerdo o muy de acuerdo con el planteamiento de la
pregunta. De igual forma, ante la consulta respecto si la adopción de las normas
internacionales de información financiera ha permitido mayor comparabilidad, un
114
90% de los encuestados señaló estar de acuerdo o muy de acuerdo con dicha
aseveración.
La consulta realizada también incluyó conocer la percepción de los analistas en
cuanto a aspectos normativos específicos y su utilidad para el análisis de las
empresas. En ese sentido se realizaron preguntas como: “considera Ud. que el
trabajo adicional para la preparación, elaboración y comprensión de la información
financiera, provoca que esta sea más onerosa”, además dentro de la consulta se
incluyó una pregunta respecto de la necesidad de capacitación en IFRS. En
ambos casos los resultados muestran una clara tendencia a la percepción que el
uso de IFRS incrementa los costos de información (80% de acuerdo o muy de
acuerdo), así como también respecto de las necesidades de capacitación, los
consultados en un 100% consideran que deben ser capacitados en IFRS para
realizar análisis correctos de la información financiero contable de las empresas.
En términos generales, las respuestas entregadas por los analistas respecto de la
percepción de las IFRS, se enfoca en dos aspectos fundamentales. Primero lo que
tiene relación con el aporte de la presentación de Estados Financieros bajo los
estándares de IFRS en los procesos de valorización de empresas y, segundo, la
creciente necesidad de capacitar e investigar respecto de los cambios que la
norma implicara en el análisis financiero realizado a las empresas.
Aplicación del Alfa de Cronbach
El coeficiente alfa de Cronbach (Cronbach, 1951), se utiliza para estimar la
confiabilidad de una prueba, o de cualquier compuesto obtenido a partir de la
suma de varias mediciones.
La confiabilidad se refiere a la consistencia o estabilidad de una medida (Quero,
2010). En este contexto, los índices de consistencia interna se utilizan para
115
estimar la fiabilidad de pruebas, escalas o test, cuando se espera que midan
atributos similares o campos de contenidos.
La medición de la inconsistencia respecto de un instrumento se debe
fundamentalmente a que entre los factores comunes de inconsistencia, se
encuentran: las instrucciones del instrumento de medición no son las adecuadas,
errores de registros de puntajes, errores debido al ambiente de medición, errores
debido al muestreo del contenido, errores debido a fluctuaciones de las respuestas
de los encuestados.
El Alfa de Cronbach se define de la siguiente forma:
𝛼 =𝑛
𝑛 − 1
∑ ∑ 𝜎𝑘,ℎ𝑛ℎ=1
𝑛𝑘=1
𝜎𝑥2
; ∀ℎ ≠ 𝑘
Donde:
n = es el número de parte
k y h = son partes sobre las que se calcula el estadístico.
Una fórmula equivalente puede encontrarse en la derivación del coeficiente 𝛼 de
Lord y Novick (1968).
𝛼 = [𝑘
𝑘 − 1] [1 − ∑ 𝑆𝑖
2
𝑘
𝑖=1
]
La aplicación del señalado índice, respecto de las respuestas aportadas por los
analistas considerados en la muestra, nos aporta que dicho indicador arroja un
valor de 0,8442, cifra que nos indica que existe consistencia relativa en las
respuestas obtenidas de los encuestados. Este indicador demuestra una mayor
coherencia en las respuestas del instrumento mientras más cerca este del valor 1,
lo que en este caso particular arroja una diferencia de 0,1558, por lo que las
respuestas obtenidas son consistentes.
116
Conclusiones
La realización de análisis financieros y la utilización de técnicas de valorización de
empresas, requieren necesariamente contar con información contable financiera
de las empresas. En este sentido, contar con mejor información contable, permite
a los analistas obtener mejores resultados en cuanto a la evaluación de las
empresas y la valorización de ellas. En este contexto, el proceso de adopción de
las Normas Internacionales de Información Financiera se ha constituido no solo en
un hito desde el punto de vista que las empresas de nuestro país presenten
información financiera comprable con estándares internacionales, sino que
además permite que los flujos de información generada por la aplicación de las
señaladas normas, al ser utilizados por los analistas, permitan evaluar de mejor a
las empresas y además permita que se logren mejores aproximaciones a los
precios objetivos de las acciones.
En este sentido, el presente trabajo tenía por objetivo conocer la percepción de los
analistas en cuanto a la utilidad de la información financiera bajo los estándares
internacionales de información financiera para el análisis financiero y la
valorización de empresas. Para lo anterior, en el desarrollo del trabajo se
encuestaron 74 analistas de empresas, quienes desempeñaban funciones en
corredoras de bolsa y bancos, de los cuales se seleccionó aquellas encuestas
donde especificaran que también habían realizado análisis y valorizaciones de
empresas bajo los estándares de PCGA.
Las principales conclusiones obtenidas en el presente estudio tienen relación con
el hecho que la valoración de los analistas de las normas en cuanto a la
información proporcionada por los estados financieros estructurados bajo IFRS, en
un 70% percibe que la calidad percibida de los antes señalados aumenta la
calidad percibida de estos. Lo anterior es coherente con el hecho que un 70% se
encuentra en desacuerdo con la afirmación relativa a que la calidad de la
información contable financiera disminuyó.
117
Por otra parte, y dada la importancia de las proyecciones en los procesos de
valorización de empresas, resulta relevante señalar que un 75% de los analistas
consultados señala que estas logran mejorar la proyección de estados financieros
para la realización de valorizaciones.
Finalmente cabe señalar que los analistas consultados coinciden en el hecho de
que la convergencia a las IFRS requiere de mayores conocimientos en
contabilidad por parte de ellos y por ende mayor capacitación. Al menos desde el
punto de vista de la profesión contable, dicho reconocimiento representa un
avance, dado que anteriormente en general los analistas centraban sus
conocimientos en la relevancia de la aplicación de las técnicas de análisis y
valorización de empresas.
Es importante señalar que el presente estudio constituye solo un punto de partida
en el análisis de la percepción, debido al hecho que se debe avanzar en conocer
la percepción de otros agentes económicos tales como inversionistas, ejecutivos y
especialmente inversionistas extranjeros.
118
Bibliografía
Akerlof, G. (1970). The Market for "Lemons": Quality Uncertainty and the Market
Mechanism. The Quarterly Journal of Economics, 84(3), 488-500.
Álvarez , S., & Rodríguez, E. (2011). La valorización bursátil en el marco de las
NIIF. Estudio empírico y análisis del caso Dermoestética. Análisis Financiero, 06-
18.
Álvarez, S., & Rodríguez, E. (2011). La valorización bursátil en el marco de las
NIIF. Estudio empírico. Análisis Financiero (115), 6-18.
Amat, O., & Oliveras, E. (2004). Propuestas para combatir la contabilidad creativa.
Universia Business Review (1), 10-17.
Castellanos, S., & Heiberg, A. (2010, Julio - Diciembre). El valor razonable y la
calidad de la información financiera. Visión gerencial, 2(9), 269-282.
Enoch, K. (2012). Adoption of IFRS and financial statements effects: The
Perceived Implications on FDI and Nigeria Economy. Australian Journal of
Business and Management Research, 2(5), 76-83.
Fama, E. (1970, December 28-30). Efficient Capital Markets: A Review of Theory
and Empirical Work. The Journal of Finance, 383-417.
Ferrari, M., Momente, F., & Reggiani, F. (2012). Investor Perception of the
International Accounting Standards Quality: Inferences From Germany. Journal of
Accounting, Auditing & Finance, 527-556.
García García, F., & Moya Clemente, I. (2009). Efecto de las NIIF en el valor
bursátil de las empresas españolas. (E. Academy, Ed.) Investigaciones Europeas
de Dirección y Economía de la Empresa, 15(1), 61-79.
Gary, M., Clare, R., & Sidney, G. (1995). Factors Influencing Voluntary Annual
Report Disclosures By U.S., U.K. And Continental European Multinational
Corporations. Journal of International Business Studies, 3, 555-572.
Lambert, R. (2003). Discussion of "limited attention, information disclosure, and
financial reporting". Journal of Accounting and Economics, 36, 387-400.
Pawsey, N. (2008). Australian preparer perceptions towards the quality and
complexity of IFRS. 1-33.
Quero, M. (2010). Confiabilidad y Coeficiente Alpha de Cronbach. Telos. Revista
de Estudios Interdisciplinarios en Ciencias Sociales, 12(2), 248-252.
119
Samuelson, P. (1965). Proof That Properly Anticipated Prices Fluctuate Randomly.
Industrial Management Review, 41-49.
Silva, B. (2011). Valor Razonable: un modelo de valoración incorporado en las
normas internacionales de información financiera. Estudios Gerenciales, 27(118),
97-114.
Stiglitz, J., & Weiss, A. (1981). Credit Radioning in Markets With Imperfect
Information. The American Economic Review, 71(3), 393-410.
Tasios, S., & Bekiaris, M. (2012). Auditor’s perceptions of financial reporting
quality: the case of Greece. (M. Institute, Ed.) International Journal of Accounting
and Financial Reporting, 2(1), 57-74.
Working, H. (1949, Mayo). The investigation of economic expectations. The
American Economic Review, 39(3), 150-166.
ANEXO
Encuesta de percepción de las IFRS
A continuación se presenta una encuesta de percepción de los beneficios de las IFRS en el contexto de valorizaciones y análisis financiero de las empresas, esta consta de 24 afirmaciones en las cuales debe indicar su nivel de acuerdo (marcar con una X). Adicionalmente, se le pide indicar lo siguiente:
1. Para la realización de sus análisis de empresas, ha utilizado estados financieros preparados bajo las Normas Internacionales de Información Financiera.
SI NO
2. Anteriormente, en el desarrollo de sus análisis, ¿Utilizó PCGA? SI NO
7. Encuesta
7.1. La información financiera presentada bajo los estándares de las Normas Internacionales de Información Financiera (IFRS) aumenta significativamente la calidad percibida de los estados financieros de las empresas.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
120
7.2. La convergencia a los estándares de IFRS, mejoraron la calidad de la información financiera.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.3. La convergencia a las IFRS ha dado lugar a una disminución de la calidad de la información financiera.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.4. El resultado de trabajos adicionales para la preparación, elaboración y comprensión de la información financiera, provoca que esta sea más onerosa.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.5. La convergencia a las IFRS ha provocado un incremento en los costos de información, debido a que da lugar a un aumento continuo de la utilización de servicios de especialistas externos.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.6. La convergencia a IFRS implica un aumento constante en el nivel de confusión para Ud. como usuario de los estados financieros.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.7. Es comprensible para Ud. la clasificación de activos y pasivos, como corrientes y no corrientes, en el sentido que ésta clasificación tiene relación con el ciclo operacional de la empresa.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.8. En el contexto de los activos corrientes, específicamente en el rubro “activos financieros” es uno de los que se vio afectado por el cambio de normativa. Esto es relevante en el contexto de sus análisis.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
121
7.9. La aplicación de los criterios de NIC 2 “Existencias” permiten analizar de mejor forma dicho rubro del Estado de Situación Financiera.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.10. El objetivo de NIC 16 “Propiedades, Planta y Equipo”, es definir el tratamiento contable de propiedades, planta y equipo, de forma que los usuarios de los estados financieros puedan conocer la información acerca de la inversión que la empresa tiene en dichos activos, así como los cambios que se hayan producido en dicha inversión. En el contexto de sus requerimientos de análisis, esto se cumple y le ha permitido mejorar su análisis y elaborar proyecciones.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.11. El objetivo de la NIIF 10 es establecer los principios para la presentación y preparación de estados financieros consolidados cuando una entidad controla una o más entidades distintas. Producto que en variadas ocasiones se utilizan estados financieros consolidados, los criterios de consolidación y método de consolidación utilizados por la norma, le permiten a Ud. Un mejor análisis de información.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.12. La IFRS 3, tiene por objetivo mejorar la relevancia, la fiabilidad y la comparabilidad de la información sobre combinaciones de negocios y sus efectos, que una entidad que informa a través de sus estados financieros. Como usuario de información financiero contable consolidada, esto se cumple con la convergencia a IFRS.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.13. El hecho de que los pasivos financieros sean medidos a tasa efectiva (TIR), implica que para el análisis del endeudamiento de la empresa, dicha información es más fiable.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.14. La utilización de tasas efectivas en la deuda financiera de la empresa, ha implicado simplificar la determinación de la deuda a valor de mercado y por consecuencia la tasa de costo de deuda de la empresa.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
122
7.15. El incremento de revelaciones a través de las notas explicativas, ha permitido evaluar y realizar un análisis más detallado de la empresa y establecer mejores supuestos de proyección.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.16. El Estado de Resultados Integrales permite visualizar de mejor forma las actividades generadoras de ganancias para las empresas que Ud. Evalúa.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.17. El Estado de Cambio en el Patrimonio Neto ha permitido contar con mayor información respecto de los cambios en el patrimonio neto de las empresas analizadas y esto le es útil en su análisis.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.18. La utilización de NIC 39 – Instrumentos financieros, en conjunto con la NIIF 7, que trata las revelaciones asociadas a dichos instrumentos, le ha sido útil en el contexto de sus análisis.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.19. El “reporting” o comunicación de información al mercado utilizando IFRS se realiza sobre una base totalmente distinta.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.20. La información preparada mediante IFRS permite conocer de mejor forma el valor real de la empresa, lo cual se refleja en el precio de las acciones.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.21. En el mercado financiero existe una mayor transparencia de información debido a la conversión a las normas internacionales de información financiera.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
123
7.22. Las IFRS hacen más comparable la información financiera, y resulta mucho más útil a los inversionistas para tomar decisiones.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.23. IFRS ha implicado un impacto real en la forma como percibe a las compañías y consecuentemente en sus recomendaciones o decisiones de inversión.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
7.24. La utilización de IFRS ha implicado un mayor requerimiento de conocimiento técnico en el área contabilidad-finanzas.
Muy de Acuerdo
De acuerdo Ni acuerdo ni en desacuerdo
En desacuerdo Muy en desacuerdo
Gracias por su colaboración.
124
IMPACTO DE LAS FILIALES EN LA RENTABILIDAD SOBRE LOS
ACTIVOS DE EMPRESAS CONSOLIDADAS EN EL AÑO 2015
Claudio Molina Mac-Kay
Eduardo Agüero Meneses
Sebastián Pinilla Ibarra
UNIVERSIDAD TECNOLÓGICA METROPOLITANA
1.-Extracto
Esta investigación analizó el comportamiento de la rentabilidad sobre el total de
activos de 30 empresas consolidadas al cierre del 2015, para comprobar si son las
empresas con mayor participación en la estructura de propiedad las que impactan
de mayor manera en el grupo. Se recopilaron datos acerca de 30 empresas
consolidadas y 3 subsidiarias por matriz, estas clasificadas por rangos de
participación directa. Se demostró que fueron las filiales en las cuales se tuvo
mayor participación directa las que afectaron en mayor medida a la rentabilidad
del holding, mientras que las empresas de media y baja participación tuvieron un
impacto inversamente proporcional a la rentabilidad del grupo.
1.-Abstract
This research analyzed the behavior of the rate of return on total assets of 30
consolidated companies at the close of 2015, to check if it’s the companies with the
most share in the property structure who impact the most in the holding. Data was
compiled from about 30 consolidated companies and 3 subsidiaries by parent,
classified by direct participation ranges. It was proven that the subsidiaries with the
most direct share was the ones who affect the most the rate of return on total
assets of the holding, while the impact of medium and low participation companies
was inversely proportional.
Jel Code: G29
125
2.-Introducción
La finalidad del estudio realizado fue determinar la existencia de una relación entre
rentabilidad consolidada y rentabilidad de las empresas individuales considerando
el porcentaje de participación sobre una filial en un grupo consolidado. Se buscó
definir si las empresas con mayor participación en la estructura de propiedad son
las que tienen mayor impacto en la rentabilidad del grupo. Se cuestiona los tipos
de integración vertical, horizontal y otros.
El estudio acotó la población a una muestra de 30 empresas consolidadas, con
participación sobre filiales en distintos rangos de participación porcentual, estos
rangos fueron definidos discrecionalmente en alta, media y baja participación,
convirtiéndose en las variables independientes del modelo de regresión y con ello,
analizar el tipo de impacto de la rentabilidad individual en la rentabilidad del grupo.
Los datos de la muestra fueron obtenidos del portal de la Superintendencia de
Valores y Seguros, específicamente de los estados financieros consolidados,
individuales y de memorias anuales publicadas en este sitio. Para realizar el
estudio, se tomaron en cuenta sólo participaciones controladoras, excluyendo del
estudio las que no cumplían con los requisitos del estudio.
Para realizar la investigación de corte transversal, se empleó el método de
mínimos cuadrados ordinarios, corriendo regresiones en el software EViews 8
para obtener indicadores de tendencias. Al comenzar la investigación se esperó
que las filiales con alta participación obtuvieran el coeficiente más alto, probando
que estas tienen un mayor impacto en el grupo consolidado.
La relevancia del tema estudiado permitió aclarar que las empresas realizan
integración para generar un valor agregado, no siempre responden a
comportamientos colusivos que permiten impactar la rentabilidad del grupo
consolidado. Se puede encontrar que la rentabilidad del grupo consolidado se
cubre en cierta medida con las rentabilidades individuales de empresas de menor
participación.
126
Si bien no existen estudios que relacionen la rentabilidad consolidada con el
porcentaje de participación directa sobre la filial, el tema de la integración ha sido
estudiado recurrentemente por diversos autores. Algunos de ellos son (Benis,
1979), que en esta publicación expone sobre la práctica de no consolidación de
las filiales de financiamiento controlado, estudiando los balances y las
implicaciones de estas prácticas en el análisis de estos balances.
Según (Macdonald, 1985), es la integración vertical un método de intercambio
importante pero no cuenta con mucha importancia en la industria manufacturera,
ya que esta industria no es de capital intensivo, ni tiene los niveles de
concentración de comprador o vendedor necesarios según el autor. Por otra parte
ese mismo año, (Maddigan & Zaima, 1985) aporta a la literatura del tema
sugiriendo en su investigación que la relación rentabilidad-integración vertical
depende altamente de la medida de integración vertical utilizada.
(Harrigan K. , 1985) Es quien propone una nueva mirada a la integración vertical,
desarrollando un estudio para lograr predecir cuando las compañías deciden
comprar o elaborar el insumo.
(D'Aveni & Ravenscraft, 1994) Asoció mayores costos de producción a la
integración vertical hacia atrás, sugiriendo un aislamiento de las presiones de
mercado y falta de incentivos para producir los insumos a un menor costo. Por otra
parte se vincula una reducción de los costos de transacción con la integración
vertical hacia adelante.
(Shackman, 2007) Realizó una investigación con una muestra de más de 1500
empresas, con las que probó teorías sobre la integración vertical y el desarrollo
del mercado de capitales. Además logró probar las teorías de los costos de
agencia, de tributación de la diversificación y la integración vertical.
(Acemoglu, Johnson, & Mitton, 2009) Estudiaron 93 países con el fin de relacionar
el desarrollo financiero, los costos de contratación y el grado de integración
vertical. El estudio demostró que países con costos de contratación más altos y
127
con un mayor desarrollo financiero contaban con mayores niveles de integración
vertical.
Al realizar esta investigación, se esperó demostrar que a mayor rango de
participación directa sobre la filial, mayor impacto en la rentabilidad del grupo. Si
bien no existió claridad del verdadero modelo de integración ya sea horizontal o
integración vertical (hacia adelante o hacia atrás) o por conglomerados con fusión
de firmas de distinto rubro, o del tipo trasnacional; constitución de firmas
domésticas que se asocian a una internacional abarcando distintos sectores.
Gráfico 1:
Esquema de interpretación de integración horizontal, integración vertical,
conglomerado y transnacional
Nota: x=x(a) y=y(a, b) donde x, y representan productos a, b insumos.
En el esquema anterior, se representó con 1 la integración horizontal, con 2 la
integración vertical, con 3 la integración por conglomerado, y con 4 una
128
transnacional cuando existen proveedores externos se desprenden
conceptualmente los modelos de integración que pueden subyacer en la muestra
escogida.
Los incentivos a la integración horizontal permiten el aprovechamiento de
economías de escala, en las que la disminución del precio de venta y la
generación de mayor bienestar social hace que sea valorada socialmente. Otro
incentivo para integrarse horizontalmente es que se captura un mayor poder
monopólico, es desde este punto de vista, que la integración es vista como no
valorada socialmente, pues existen aumentos del precio de venta y pérdidas de
excedentes de los consumidores. Un tercer incentivo a la integración horizontal
constituye el permitir abarcar distintos nichos de mercado –distribución- en la
cadena abarcan un mayor mercado meta. Por último el grupo puede generar un
hedge natural al tener distintas empresas con distintos factores de riesgo que en
conjunto baja el riesgo al integrarse.
Por otra parte, los incentivos para integrarse verticalmente se orientan por una
parte para reducir costos de transacción (Coase, 1937) o asegurar la provisión de
un insumo disminuyendo la incertidumbre, por la falta de mercado para un insumo
y la búsqueda de elaborarlo por sí mismo, por esquemas tributarios, y también por
interacción monopólica que busca un mayor grado de poder monopólico.
3.-Método
3.1.-Sujetos
La muestra se compuso por emisores de valores de oferta pública que cuentan
con FECU en la Superintendencia de Valores y Seguros, que además de ser
empresas consolidadas, realizaron sus estados financieros bajo IFRS para el año
2015 y adicionalmente cumplían con los rangos de participación directa necesarios
para llevar a cabo la investigación.
129
Los porcentajes de participación sobre las filiales y los datos sobre las
rentabilidades de estas fueron obtenidos de los estados financieros consolidados
publicados en el portal de la Superintendencia de Valores y Seguros.
Se excluyeron las participaciones no controladoras (participación total de todas las
filiales escogidas menor a 50%) y todas las matrices que no contaban con 3 filiales
en cada rango de participación directa definido para este estudio. Finalmente la
muestra se compuso por 30 empresas consolidadas, cada consolidada tuvo 3
filiales en los distintos rangos de participación, estos rangos fueron alta
participación (sobre 90%), media participación (sobre 60%- hasta 90%) y
finalmente baja participación (sobre 0%- hasta 60%).
Técnicas e instrumentos
La información primaria recolectada fueron datos acerca del resultado neto y los
activos totales de todas las empresas (matrices y filiales) que conformaron la
muestra de esta investigación, estos datos fueron obtenidos de los estados
financieros consolidados publicados bajo IFRS al cierre de 2015, obtenidos del
portal de la Superintendencia de Valores y Seguros, en algunos casos estos datos
debían ser obtenidos de los estados financieros individuales o memorias anuales,
documentos publicados en el mismo portal.
Para dar sustento teórico a los resultados obtenidos por el análisis estadístico se
recurrió a literatura acerca de temas contables como económicos. El marco
contable se compuso de estados financieros consolidados (Vargas Valdivia, 2004),
métodos de consolidación (Carvalho Betancur, 2006) y del impacto de los efectos
de las IFRS en las empresas (Clavero Vera & Clavero, 2011). El marco teórico
económico contempla modelos de colusión (Salvatore, 2008), integración vertical y
horizontal (Wheelen & Hunger, 2007).
Esta indagación de información de fuentes secundarias se realizó en libros,
trabajos de investigación y otros tipos de publicaciones con la finalidad de
comprender los actuales procedimientos contables que afectan a la investigación,
130
y por otra parte, dar sustento teórico a los resultados obtenidos para llevar a cabo
una reflexión crítica.
Para analizar la información (primaria) se realizaron regresiones lineales para
obtener medidas de tendencias, el método utilizado fue el de los mínimos
cuadrados ordinarios (MCO) en el cual la variable dependiente (rentabilidad sobre
los activos de empresas consolidadas) quedó expresada por:
𝑌1 =∝0+∝1 𝑋1 +∝2 𝑋2 +∝3 𝑋3 + 𝑢′
Donde ∝0 representa la constante y coeficiente de posición del modelo; mientras
que ∝𝑖 es el coeficiente de elasticidad de la rentabilidad de la filial, midiendo la
variación porcentual de la rentabilidad total ante un cambio de la rentabilidad de
una filial; mientras que 𝑢𝑖 es el término de perturbación estocástica del modelo.
La variable dependiente fue la Rentabilidad Consolidada (𝑌1), el indicador se
obtuvo con la siguiente fórmula:
𝑅𝑒𝑛𝑡𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝐶𝑜𝑛𝑠𝑜𝑙𝑖𝑑𝑎𝑑𝑎 = 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑁𝑒𝑡𝑜 𝐶𝑜𝑛𝑠𝑜𝑙𝑖𝑑𝑎𝑑𝑜
𝐴𝑐𝑡𝑖𝑣𝑜𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠 𝐶𝑜𝑛𝑠𝑜𝑙𝑖𝑑𝑎𝑑𝑜𝑠
Las variables independientes del modelo son las rentabilidades de las filiales
clasificadas según los siguientes rangos de participación directa:
Alta participación: [100%-90%)
Media participación: [90%-60%)
Baja participación: [60%-0%)
Por consiguiente las variables independientes se obtuvieron mediante las
siguientes fórmulas:
𝑋1: Rentabilidad sobre los activos de filial con Alta Participación
𝑋1 =𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑁𝑒𝑡𝑜
𝐴𝑐𝑡𝑖𝑣𝑜𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠
131
𝑋2: Rentabilidad sobre los activos de filial con Media Participación
𝑋2 =𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑁𝑒𝑡𝑜
𝐴𝑐𝑡𝑖𝑣𝑜𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠
𝑋3: Rentabilidad sobre los activos de filial con Baja Participación
𝑋3 =𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑁𝑒𝑡𝑜
𝐴𝑐𝑡𝑖𝑣𝑜𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠
4.-Resultados
Luego de correr el modelo de regresión propuesto, se corrigió el problema de auto
correlación y finalmente se optó por el siguiente modelo que se aprecia en la tabla
4.1. Tabla 4.1 Modelo de regresión ARMA con 3 variables
Dependent Variable: CONSOLIDADA
Method: Least Squares
Date: 04/06/17 Time: 14:32
Sample (adjusted): 2 30
Included observations: 29 after adjustments
Convergence achieved after 10 iterations
MA Backcast: 1 Variable Coefficient Std. Error t-Statistic Prob. C 0.035678 0.008469 4.212804 0.0003
ALTA 0.089146 0.023517 3.790620 0.0009
MEDIA -0.041597 0.019134 -2.173959 0.0403
BAJA -0.060587 0.016953 -3.573933 0.0016
AR(1) 0.043460 0.200953 0.216267 0.8307
MA(1) 0.948837 0.023003 41.24909 0.0000 R-squared 0.595519 Mean dependent var 0.034060
Adjusted R-squared 0.507588 S.D. dependent var 0.030924
S.E. of regression 0.021700 Akaike info criterion -4.641036
Sum squared resid 0.010830 Schwarz criterion -4.358148
Log likelihood 73.29503 Hannan-Quinn criter. -4.552439
F-statistic 6.772597 Durbin-Watson stat 1.774686
Prob(F-statistic) 0.000514
Fuente: Resultados de salida computacional EViews 8
132
La anterior Tabla 4.1 fue la salida del modelo mejorado, el modelo cumplió con los
requerimientos de la investigación explicando la variabilidad de la rentabilidad
consolidada en cerca del 60% de la varianza total.
Se corrigió corregido el problema de auto correlación, se logró un modelo con
significancia individual para las rentabilidades entre los rangos definidos para la
participación, lo que permitió sustentar la hipótesis que la filial con mayor
participación tiene impacto en la rentabilidad consolidada.
Continuando con el coeficiente obtenido de la variable ALTA, este tomó un valor
de 0.089146, indicando que genera variaciones en la rentabilidad consolidada de
un 8,91% ante un cambio en la rentabilidad de la filial manteniendo las otras
variables constantes. Este valor fue significativo con un 5% de confianza.
El resultado observado para las empresas con rangos menores de participación
fue el resultado que se intenta explicar. En las filiales con participación media la
rentabilidad individual obtuvo un coeficiente de -0.041597 que representa una
variación inversamente proporcional, este valor además de ser negativo, tuvo
significancia al 5% de confianza.
Finalmente en el caso de las filiales con baja participación, al igual que la variable
MEDIA se obtuvo un coeficiente con valor negativo es decir al variar la rentabilidad
individual se afecta a la rentabilidad consolidada inversamente, con significancia
individual el valor de su coeficiente fue -0.060587.
Con estos 3 coeficiente se obtuvo que el impacto generado en la rentabilidad
consolidada fue mayor a medida que se tuvo más participación en la filial, esto se
obtuvo por que los valores de los coeficientes estaban en orden de
ALTA>MEDIA>BAJA, por lo tanto a medida que se iba aumentando la
participación sobre la filial también aumentaba el impacto en el grupo, por lo que
se cumplió lo planteado al principio de la investigación y además se logró dar con
un modelo que reflejó el fenómeno propuesto.
133
El modelo explicó las variaciones de la rentabilidad consolidada en función de las
rentabilidades de las filiales con distintos rangos de participación. El modelo está
explicado por las variables independientes en un 59,55%, sirvió para probar o
disprobar la hipótesis planteada y sirvió para cuestionar las otras tendencias.
5.-Discusión
El modeló logró probar que las filiales con mayor participación en la estructura de
propiedad son las que tienen impacto directo en la rentabilidad del grupo.
En el caso de las filiales con alta participación, estas son las que obtienen las
mayores rentabilidades del grupo, esto se sustenta teóricamente en la integración
vertical hacia adelante, en donde las empresas que están hacia el final de la
cadena de valor del producto son las encargadas de generar los mayores ingresos
por medio de la venta del bien final, obteniendo mayores valores de la rentabilidad
sobre los activos.
En el caso de las filiales con media participación, estas obtienen valores
negativos, una explicación teórica posible radica en que en la cadena de valor
estas compañías son las encargadas de la producción del bien, estas venden el
producto a las compañías que cumplen el rol de distribuidoras y estas operaciones
intercompañías no son contabilizadas como ingresos en los estados financieros de
un grupo consolidado, por lo que estas empresas no tienen como función generar
altas rentabilidades en el grupo.
Por otra parte, las compañías con baja participación tienen una relación inversa
respecto a la rentabilidad del grupo consolidado, una explicación posible se logra
al deducir que si estas compañías están integradas verticalmente hacia atrás,
cumplirían la función de asegurar insumos para la elaboración del producto final,
vendiéndolos a muy bajo precio a la siguiente compañía que forma la cadena de
valor. Estas compañías si están integradas verticalmente hacia atrás pese a tener
bajas o negativas rentabilidades son de importancia para el grupo, pues
indirectamente las altas rentabilidades que se obtienen en un grupo consolidado
134
se deberían a la reducción de los costos de transacción para la obtención de los
insumos necesarios que generan valor agregado en el grupo de empresas.
Otra explicación a estos valores negativos obtenidos descansa en la integración
horizontal, en donde matrices adquieren compañías de distintos rubros para
convertirse en holdings de bajo riesgo, este riesgo bajo se obtiene de filiales
adquiridas que tienen altas rentabilidades y otras con bajas rentabilidades
diversificando el riesgo para convertirse en empresas atractivas para
inversionistas u otras entidades. Existe además integración horizontal cuando se
quiere adquirir mayor cuota de mercado, esto se logra adquiriendo compañías
competidoras para reducir la competencia del mercado.
Estas fusiones de empresas pueden realizarse por diferentes causas, en muchas
ocasiones para la reducción de costos de transacción, asegurar un insumo o para
elaborarlo, ya que en ocasiones este no se puede conseguir en el mercado
abierto, sin embargo, esta integración no siempre se realiza para adquirir poder
monopólico como se piensa, ya que en muchas ocasiones es para obtener un
mayor valor agregado que se refleja en un producto de calidad y en precios que
benefician al consumidor final.
135
Bibliografía
Acemoglu, D., Johnson, S., & Mitton, T. (2009). Determinants of Vertical Integration: Financial
Development and Contracting Costs. The Journal of Finance , 64 (3), 1251-1290.
Benis, M. (1979). The Non-Consolidated Finance Company Subsidiary. The Accounting Review ,
54 (4), 808-814.
Carvalho Betancur, J. A. (2006). MÉTODO DE PARTICIPACIÓN PATRIMONIAL Y
CONSOLIDACIÓN DE ESTADOS FINANCIEROS (Primera edición ed.). (L. Correa Restrepo, Ed.)
Medellín, Colombia: Universidad de Medellín.
Clavero Vera, I., & Clavero, M. J. (2011). IMPACTO PLAN DE CONVERGENCIA A NORMAS
INTERNACIONALES INFORMACIÓN FINANCIERA EN CLÍNICA MAGALLANES S.A. Punta
Arenas: UNIVERSIDAD DE MAGALLANES.
Coase, R. H. (1937). The Nature of the Firm (Vol. 4). (N. Series, Ed.) Económica.
D'Aveni, R., & Ravenscraft, D. (1994). Economies of Integration versus Bureaucracy Costs. Does
Vertical Integration Improve Performance? The Academy of Management Journal , 37 (5), 1167-
1206.
Harrigan, K. R. (1983). Strategies For Vertical Integration. Lexington: Lexington Books, D.C. Heath.
Harrigan, K. (1985). Vertical Integration and Corporate Strategy. The Academy of Management
Journal , 28 (2), 397-425.
Jensen, M. C., & Meckling, W. H. (1976). Theory and the Firm: Managerial Behavior, Agency cost
and Ownership Structure. Journal of Financial Economics , 3 (Issue 4), 305-360.
Macdonald, J. (1985). Market Exchange or Vertical Integration: An Empirical Analysis. The Review
of Economics and Statistics , 67 (2), 327-331.
Maddigan, R., & Zaima, J. (1985). The Profitability of Vertical Integration. Managerial and Decision
Economics , 6 (3), 178-179.
Salvatore, D. (2008). Microeconomía. D.F., México: McGRAW-HILL/INTERAMERICANA
EDITORES, S.A. DE C.V.
Shackman, J. (2007). Corporate Diversification, Vertical Integration, and Internal Capital Markets: A
Cross-Country Study. MIR: Management International Review , 47 (4), 479-504.
Smith, A. (1776). An Inquiry into the Nature ans Causes of the Wealth of Nations. (T. e. Ltd., Ed.)
London, England.
Vargas Valdivia, L. (2004). Estados Finales de Contabilidad. En L. Vargas Valdivia, Estados
Finales de Contabilidad (Novena ed.).
Wheelen, T., & Hunger, D. (2007). Administración estratégica y política de negocios. (Décima ed.).
México: PEARSON EDUCACIÓN.
136
Williamson, O. E., & Winter, S. G. (Edits.). (1991). The Nature of the Firm: Origins, Evolution, and
Development. New York: Oxford University Press.
137
PORTFOLIO PERFORMANCE UNDER REFERENCE-DAY RISK
Marcelo González
Universidad de Chile, Chile
Arturo Rodríguez [email protected]
College of Business Administration
Roberto Stein
University of Nebraska-Lincoln, Lincoln, USA
ABSTRACT
Reference-day risk has been previously identified as a type of sampling variation
phenomenon, and its effect on the estimation of stock returns and their volatility
and market betas has been documented. Using a dataset of daily equity mutual
fund returns, we extend previous studies to analyse the effect of reference-day risk
on regression alphas, a metric that is widely used to measure fund performance.
The results follow the trend observed for other financial asset statistics: for a large
proportion of funds that show significant alphas, significance depends only on the
reference day used as a basis for the estimation of the returns. This finding casts
doubt on all inferences previously obtained using this measurement. Further tests
show that the variability of the alpha and itssignificance does not appear to have a
systematic pattern and is not related to fund characteristics. Methodologies tested
that may diminish the problem, which include the use of factor models and robust
regression using Student-t distributed errors, do not yield encouraging results.
KEYWORDS: Estimation risk; reference-day risk; mutual funds; performance; alpha
JEL CLASSIFICATIONS: C10; G14; G23
138
Introduction
Since its introduction by Jensen (1967), the use of regression alphas as a
performance metric of both individual assets and investment funds has become a
standard tool for both academics and practitioners. Its use is pervasive in most
mutual fund research articles and is one of the most commonly used statistics in
the mutual fund industry. In a recent paper, Acker and Duck (2007) introduced the
concept of ‘reference-day risk’ to refer to the large sampling variations and
estimation risks that they detect in stock returns, variance and market betas that
are simply due to changes in the choice of the reference day used to calculate
monthly returns. If we consider a time series of an asset’s daily returns spanning
five years, we can calculate monthly returns by designating the first daily return as
our reference day, then taking the product of the following months’ worth of trading
days, and so forth until we obtain 60 monthly returns. With these monthly returns,
we can then obtain the five-year holding period return for the asset and its volatility
(variance or standard deviation), as well as estimate a market (single-index) model
to obtain the asset’s market beta. This methodology is standard for analyses of
investment
performance and risk. Now assume that we repeat the exercise, but instead of the
first daily returnin our sample, we designate the second daily return as our
reference day and calculate our monthly returns by calculating month-long series
of daily returns from that point on. Intuition would predict a small change in the
resulting statistics, but these changes would not be particularly significant and,
more importantly, would not change the analyst’s or researcher’s inference as to
the asset’s level of performance or risk. However, this belief does not hold: Acker
and Duck found that changing the reference day introduces extreme variations in
the resulting measures. They reported cases where five-year returns can be
positive or negative, variances can support classifications of the stocks as
low- or high-risk investments, and betas can range from negative to positive and
below 1 to above 1 for the same stock. Dimitrov and Govindaraj (2008) extend the
reference-day risk analysis by first confirming Acker and Duck’s results and then
analyse a further variation, which depends on the time of day used as a reference
139
to calculate the daily returns, which is called the ‘reference-time risk’. These
studies point to serious robustness problems for the metrics used in a very large
number of financial applications, and the recommendation is that all literature and
empirical tests based on these metrics should, at the very least, be revised.
In this paper, we extend the reference-day risk analysis to mutual fund regression
alphas. Using a large sample of equity mutual fund daily returns spanning 2007 to
2011, we estimate the alphas for every reference day in a month and study their
resulting values as well as their statistical and economic significance. The results
contraindicate the use of the regression alpha as a tool for mutual fund analysis.
The value and significance of the statistic vary widely depending on the reference
day used to estimate the metric. While portions of the sample include funds that
have alphas that are positive and significant or negative and significant —
irrespective of the reference day employed — an important number of US equity
funds have alphas that can be significant or insignificant and positive or
negative, depending only on the day the analyst chooses to calculate monthly
returns. Moreover, further tests show that there does not appear to be a pattern in
the reference days that would make this variation predictable (and therefore
susceptible to correction), nor is there a clear set of fund characteristics that
determine the size and impact of this phenomenon in the fund’s resulting alpha.
This paper is organised as follows. The next section provides a concise review of
the classical and modern literature on portfolio performance. The section following
briefly describes the sample used in the empirical tests. The third section details
the methodology employed and the results obtained, while the final section 5 offers
concluding comments.
Literature review
Aside from early descriptive work by Close (1952), the first models used to valuate
risk-adjusted fund performance were based on the validity of the CAPM and,
hence, the existence of a unique risk factor, the market portfolio. For example,
Jensen (1968) suggested the use of the followingmodel based on the CAPM,
which has been known since then as the market model.
140
Where Rit is the return on fund i in month t, R ft is the return on a one-month T-bill
in month t, Rmt is the return on the market proxy in month t and 1it is an error term
that follows a standard normal distribution. The intercept of this model, a i , which is
often called Jensen’s alpha in recognition of this contribution, is usually interpreted
as a measure of performance relative to the used market proxy (or more generally
to the model used to estimate the required returns). An alternative specification of
this model assumes a t-distribution for the error term. Cademartori, Romo, Campos
and Galea (2003) show that this methodology is able to better incorporate the
influence of outliers in the data in the estimation of the beta coefficient, and
Gonzalez, Rodriguez and Stein (2014) shows that it reduces the influence of
reference-day data in the estimation of firm betas. From an empirical point of view,
this market model, however, assumes that a fund’s investment strategy can be
approximated using a single market index. Therefore, it does not account for
holdings outside the index, which are typically small cap stocks. Thus, Elton et al.
(1993) propose adding a small cap benchmark to the one-factor specification. A
theoretical foundation for this strategy is provided by Ross (1976), which
rationalises the existence of more than one factor in the economy to price risky
assets.
The most widely used empirical implementation of this idea is provided by Fama
and French (1993), who construct mimicking portfolios for risk factors associated
with commonly observed asset pricing anomalies, such as the small firm and book-
to-market effects. The Fama-French model is as follows:
141
Where SMBt is the difference in the return between a small-cap and large-cap
portfolio at time t and HMLt is the difference in the return between a high and low
book-to-market ratio portfolio at time t.
Although the Fama-French model represents an improvement with respect to the
one-factor model in terms of explaining the cross-sectional variation of stock
returns, it is not able to explain the variation in returns on momentum-sorted
portfolios. To this end, Carhart (1997) extends the Fama-French model by using a
four-factor model to account for momentum. The Carhart model can be expressed
as follows:
Where Momt is the difference in the return between a portfolio of past winners and
a portfolio of past losers at time t.
Cremers et al. (2013) proposes alternatives to the Fama-French and Carhart
models that include a modified version of these models as well as an alternative
specification that includes seven factors.
All of the above models focus on unconditional returns. However, Ferson and
Schadt (1996) note that performance tests need to detect timing and selection
ability, which cannot be attributed to public information. For this reason, they
advocate the use of conditional performance evaluation. The asset pricing model
underlying this approach is the conditional APT (Stambaugh 1983), which can be
expressed as follows:
142
where Zt-1 denotes a lagged information set so that the model postulates that the
expected conditional return on a portfolio, E(R pt/Zt-1) is a linear combination of
premia attributed to risk factors at time t (lk,t). Pástor and Stambaugh (2002)
extend the conditional framework by applying a Bayesian analysis in the context of
portfolio pricing. Their paper is based on the idea, suggested by Stambaugh
(1997), that assets with longer histories can help generate more precise inferences
about the moment of asset returns with shorter histories. The authors show that
including non-priced factors in a benchmark models helps estimate alphas, even if
we know the true ex-ante pricing model. However, as noted by Cremers et al.
(2013), most academics have chosen to use the Fama-French three-factor model
and the Carhart four-factor model for performance evaluation. For this reason, we
focus on these models to analyse the impact of reference-day risk in the estimation
of Jensen’s alpha. Conditional return models represent an interesting extension
that can be investigated in a separate study.
The sample
Fund alphas are estimated for a comprehensive sample of the CRSP Survivor-
Bias-Free US Mutual Fund dataset, from which mutual fund daily returns are
obtained for the five-year period of 2007–2011. The dataset contains 5 856 equity
mutual funds once the restriction of full data is applied. This restriction is imposed
to ensure that each fund that is studied has daily returns for each trading day in the
sample period, which is required to carry out the reference-day risk analysis.
Additionally, index daily returns are also obtained from CRSP to estimate the
market model. The S&P 500 is chosen as the index in this case, although the use
of other indexes (CRSP and others) should qualitatively yield the same results
detailed below.
The risk-free rate is the daily return on the US T-Bill, which is obtained from
Kenneth French’s web page as part of the Daily Fama-French Factors dataset.
From this dataset, we also obtain the daily returns on the factor portfolios SMB and
HML, which are used in the estimation of the Fama-French three-factor model.
143
Finally, the fund characteristics and classifications are also extracted from CRSP
and are used in further analyses of the resulting reference-day alphas.
Methodology and results Reference-day alpha analysis
As in Acker and Duck (2007), the market model is estimated for each mutual fund,
where RJ i,t is the excess return of fund i over the risk-free rate in month t, based
on reference day J, and RJ M,t is the excess return of the market index over the
risk-free rate in month t, based on reference day J. Data collected from this model
include estimations of alpha and beta for each mutual fund in the sample for each
reference day in the month, as well as measures of statistical significance of each
estimation, which is based on both standard Gaussian errors and robust HAC
matrix-based standard errors.
As mentioned in the earlier section, we test three additional methodologies and
analyse the resulting reference-day alphas: the Fama-French three-factor model,
the Carhart four-factor model (both factor model alphas’ statistical significance are
tested using robust errors), and a robust regression using Student-t distributed
errors.
To estimate the Fama-French model, we first obtain a dataset of Fama and French
daily factors and then use the following regression:
where the additional factors are SMBJ t - the return on a portfolio composed of
stocks of small minus (short position) large firms - and HMLJ t, the return on a
portfolio composed of stocks with high minus (short position) low market-to-book
ratio firms. The returns of both factors are monthly returns for month t, which are
calculated for each reference day J. If we posit that the market model overstates
144
the alpha because of omitted variables that account for risks not contained in the
variation of the market return, then the effect of applying the three-factor model
should be to reduce the size and significance of the resulting alphas, which should
tend towards ‘true’ performance above that which is justified by the risk incurred by
the fund. Similarly, we estimate the Carhart model for each reference day J; that is,
The last methodology employed is obtaining fund alphas from the original market
model but where the errors in the regression have a Student-t distribution as
opposed to the normal distribution that isregularly employed. To estimate the
regression, we apply the maximum likelihood methodology of Taylor and Verbyla
(2004).
Table 1 shows a simple analysis of the resulting alphas obtained with the four
different methodologies, which are grouped by their signs and significance.
In Panel A, where results at the 10% significance level are shown, we can see that
for the three classical approaches, between 78.3% and 73.8% of the studied funds
have alphas that are insignificant independent of the reference day chosen to
estimate them, while the t-distribution method yields only 55,21%. Given the low
number of significant alphas reported in previous studies (see, for example Jensen
(1965), Malkiel (1995), Carhart (1997), and Otten & Bams (2004)), the result of the
classical approaches is consistent with the literature. On the other hand, we see
that for all approaches, approximately 6% of the funds have alphas that are
significant, independent of the reference day. Again, for all the approaches, the
sample of the funds that have significant alphas at some point (typically more than
1 300 or approximately 23% of the entire sample) is divided into a disproportionate
number of funds, with alphas that are significant or not depending on the reference
day chosen to estimate them. For the market model, for example, out of the
subsample that includes positive alphas at some point (443 funds), only 55 funds
exhibit alphas that are positive regardless of the chosen reference day, which in
145
turn implies that almost 88% of these funds, corresponding to 388 funds, are
sensitive to the reference-day selection equivalent to 893 funds, show negative
alphas at some point, with almost 70% of these funds being sensitive to the
starting point in the window of estimation. The pattern of these results is the same
On the other hand, 15.25% of the sample, which is regardless of the method
employed to estimate the alpha and standard errors.
Table 1. Number of funds with positive, negative, significant and insignificant
alphas.
Different methodologies are used to obtain estimates of mutual fund regression alphas using every
trading day in the month as starting reference. The methodologies include factor models with one
factor (Market model), the Fama & French (1993) 3-factor model, the Carhart (1997) 4-factor model,
and a one-factor model where the error term has a Student-t distribution. Funds are grouped into
categories based on the resulting alpha measures, where the categories are funds with an alpha
that never attains statistical significance (’Never significant’), irrespective of the reference day used
to estimate it, those with alphas that are always significant, and those with alphas that are always
positive and significant or negative and significant. Additionally, we count the number of funds that
have alphas that can be positive and significant or insignificant, as well as negative and significant
or insignificant, depending on the reference day used. Finally, the last group counts the number of
funds for which the alpha can be positive and significant or negative and also significant, depending
on the reference day. Where indicated, Newey-West heteroskedasticity and autocorrelation
consistent standard errors are used (‘Robust’).
146
For instance, both the Fama-French and Carhart models show that 88% of the
funds with positive alphas are sensitive to the reference day, while for the t-
distribution method model, this number increases to 97%. In the case of negative
alphas, the percentage of non-robust funds is approximately 70% for the Fama
French and Carhart models (in line with the market model), whereas for the t-
distribution, it is almost 80%.
Panel B shows the results at the 5% level. Here, of course, the number of funds
with a significant alpha decreases - in this case, to slightly less than 900 for most
methods. Again, for funds that show significant results, the number of funds is
highly sensitive to the reference day, independent of the method employed to
estimate the alpha. For example, for the market model, only 9 out of 219
(approximately 4%) funds with positive alphas show a robust result. Similarly, for
funds with negative alphas, the number of funds with robust results is 173 out of a
subsample of 658 (26%), which is much lower than the number of funds that are
reference-day sensitive. Finally, Panel C shows the same pattern. That is, as the
significance level increases, given that a fund shows significance, the percentage
of these funds with results that depend on the reference day increases. More
precisely (for the market model), only 1 out of 53 (less than 2%) of the funds with
positive alphas are robust, while for those with negative performance, only 43 out
of 301 (less than 15%) have results that are independent of the reference day.
Again, these results do not change substantially with the method. The sensitivity to
the reference day could, of course, be a statistical fluke that results in one or two
reference days evincing an alpha with characteristics that are different from those
147
obtained throughout the rest of the month. That is, there may be a ‘real’ fund alpha,
and someone using randomly chosen reference days to estimate the alpha would
be ‘unlucky’ to obtain a measure that is not in line with the ‘correct’ one (a relatively
low-probability event). We analyse this case by focusing on the funds that exhibit
significance at some point during the estimation window and counting the
number of funds that have more than 1, 10, 15, 20, and 25 reference days in the
month that yield insignificant alphas. Table 2 shows the results for the case-
positive significant alphas at a 10% level. We can see that for all models, more
than 50% of the potential reference days yield an insignificant alpha, therefore
ruling out that the result is primarily driven by a few extreme cases.
As has been shown in the previous analysis, the variation of the alpha throughout
the period of reference days is a pervasive problem that affects a very large
percentage of mutual funds that show significant results at some point. However,
how large is the problem in terms of the size of the alphas? In other words, having
established the statistical significance of the phenomenon, we are now interested
in its economic significance.
In Table 3, we can see data for the funds that yield the five largest and five
smallest ranges of reference-day alphas. If we consider that these alphas are
obtained from monthly returns and therefore represent an average monthly
performance above or below the market, then ranges that can make these alphas
vary by as much as 3.56% - as is the case with the largest value, depending
only on the reference day chosen for estimation - are clearly large effects,
particularly when we consider that they are within the same order of magnitude as
the full fund returns themselves. In general,
Table 2. Maximum and minimum ranges of alpha estimations across
reference days.
The range between maximum and minimum alpha estimation across difference reference days in
the month is obtained for each fund in the sample. Each panel contains data for the top and bottom
five funds as ranked by the range of their reference-day alphas. The data shown includes the range
of alphas obtained, the maximum and minimum alpha, the standard deviation of reference-day
alphas, as well as the range of these alphas’ p-values, and the maximum and minimum p-values
obtained.
Panels A, B and C show data based on alphas estimated from the Market single-factor model, the
148
Fama-French 3-factor model, and the Carhart 4-factor model, respectively, where all p-values are
based on robust (HAC) standard errors. Panel D shows the ranges for alphas estimated using a
single index model, where the error term has a Student-t distribution.
149
large variability in the value of an alpha entails an equally volatile measure of the
alpha’s corresponding p-value, which can vary between a value that renders the
alpha insignificant to endowing it with a 1% level of significance, more than enough
for any analyst to assume that the fund outperformed the market. In line with the
previous results, the performance of the market, the Fama-French model and the
Carhart model are very similar in yielding maximum ranges between 3.07%
(market model) and 3.56% (Fama-French). Again, the t-distribution method yields
results that are somehow different, showing a maximum range of 2.24%.
As for the minimum range results, it appears that small variability in reference-day
alphas also translates into small variations in their respective p-values. In fact,
funds with very small variations in the alpha appear to belong to the groups of
funds that have insignificant alphas that are independent of the reference day
chosen to estimate them.
Table 3. Regression analysis of alpha value range and fund characteristics.
The dependent variable for each model is the range between maximum and minimum reference
day alpha estimations for each fund in the sample. Cross-sectional ranges are obtained for alphas
estimated using the market one factor model, the Fama-French 3-factor model and the Carhart 4-
factor model (where standard errors are estimated using robust, HAC consistent matrices in each
case), as well as alphas estimated using a single index model and where the error term has a
Student-t distribution. Ranges are regressed on the funds’ characteristics, which include the funds
percentage of common stock, expense ratio, management fee and turnover ratio and retail fund,
which is a dummy variable that takes the value of 1 if the fund is open to retail investors, and 0 if it
is reserved for institutional investors. Statistical significance is estimated using robust standard
errors. Regression coefficient significance is denoted with *, ** and *** for a 10%, 5% and 1% level,
respectively.
150
Patterns and determinants of alpha variation
First, we test the possible existence of systematic market behaviour. Deviating
somewhat from the methodology of Acker and Duck (2007), who estimate
individual regressions for each stock in their sample, we estimate the following
pooled model with our sample of US equity mutual funds alphas:
where αiJ is fund i’s alpha for reference day j, RDAYJ is the reference day, and b is
the regression coefficient. Unlike the results reported for this model by Acker and
Duck, who find scarcely any significant coefficients, we find that the coefficient that
accompanies the reference day is indeed significant but exceedingly small, equal
to -3.5e-6. This can be interpreted as a change of one reference day, causing a
change of -0.00035% in the fund’s alpha, which is well below the threshold of the
economic significance of this measurement and thus fails to account for the
variability of the alpha observed in the data. Moreover, the adjusted R-squared of
this model is also infinitesimal (0.0001061), further showing that there is scarcely
any relationship between the alpha and the reference day used in its estimation.
Because this analysis does not yield any useful information regarding a possible
pattern in the values of reference-day alphas, we then attempt to link the size of
the reference-day alpha phenomenon with fund characteristics. For this purpose,
the following model is estimated for the full sample of funds:
151
where log (DesvEsti) is the natural log of the standard deviation of reference-day
alphas for fund I and Exp Ratio, Mg Fee and Turn Ratio are the fund expense ratio,
management fee and turnover ratio, respectively, reported for 2011. %Com is the
percentage of the fund’s capital invested in common stock, and Ret Fund is a
dummy variable that takes the value of 1 if the fund is open to retail investors. The
regression is estimated for the full sample, as well as for the group that includes
only US equity funds. For this last group, the variables representing maturity and
the percentage of common stock are removed because, by definition (and
according to the data), equity funds invariably have high percentages of common
stock and have almost no holdings of fixed income securities. As we can see in the
first column of Table 4, while most coefficients are significant, their effects are
very small.
Summarising the preceding analyses, as in Acker and Duck (2007) and Dimitrov
and Govindaraj (2008), there does not appear to be a relationship that links
reference-day alphas with any particular
Table 4. Variable significance of alphas conditional on the reference day.
For all funds that exhibit either positive and significant or else insignificant alphas depending on the
reference day used to estimate the parameter, counts are made showing the number of these funds
that have more than 1, 10, 15, 20 and 25 reference days in the month that yield insignificant alphas.
The analysis is carried out for alphas estimated using the market single-factor model, the
Fama-French 3-factor model, the Carhart 4-factor model, where significance is based on robust
(HAC) standard errors, as well as alphas estimated using a single index model, where the error
term has a Student-t distribution.
152
pattern in time nor with the most commonly studied variables that determine fund
performance and behaviour in the market. One last analysis pertains to the returns
obtained by the funds of each group of alphas, as characterised in Tables 1 and 4.
Two groups in particular that draw attention are the portions of the sample of funds
for which alphas are always positive or negative, irrespective of the reference
day employed. As mentioned previously, funds in these categories have very low
variation in the values of their alphas throughout the reference-day period. This is
also true for the variability of each alpha’s p-value. Thus, these groups have alphas
that are robust to the reference-day variation. For these alphas to be good
measures of performance, the question is whether the returns obtained
by funds in each of these groups (positive and negative significant alphas) follow
patterns that correlate with these alphas.
To study this question, we first obtain five-year holding period returns for all funds
with OLS alphas that are either always positive and significant or negative and
significant for each reference day. We then obtain the mean holding period return
for each reference day for both groups.
Table 5 shows the results obtained for the mean five-year holding period return for
each reference day. The column on the left shows the returns obtained on average
by funds with negative alphas, and the column on the right has the results for funds
with positive alphas. The pattern that emerges is very clear. Over the period 2007-
2011, funds with negative alphas obtain, on average, a return close to -26%, while
those with positive alphas averaged a return of 30%. It is important to note that the
average returns are very different and consistent with the
Table 5. Reference day mean holding period returns of funds with positive
and negative alphas.
Five-year holding period returns are calculated using each reference day,
for all funds that have market model alphas which are always significant
and either always positive or negative
153
interpretation of alphas (poor vs good performance) and that the variation of these
returns, contingent on the reference day used to calculate them, is very small.
These findings point to a measure that can identify consistent poor or good
performance, which is a robust regression alpha.
Conclusions
In this article, we document the effect of the reference-day risk on mutual fund
regression alphas. For a distressingly large proportion of the sample of funds with
significant alphas, the size, sign and significance of the alphas can vary widely,
depending on the day of the month used as a reference to obtain monthly returns,
which are, in turn, used to estimate the risk adjusted model. As in Acker and Duck
(2007), no systematic pattern can be found to explain these variations.
Furthermore, the size of the volatility of the alphas does not appear to be linked to
154
any reasonable mutual fund characteristic; therefore, the problem is not only
pervasive in that it affects thousands of funds — it is also evident in most fund
classes and types. These findings show that the prevalent use of the alpha as a
measure of fund performance is dubious at best and casts doubt on all previous
research that relies on this measure. We also tested three alternative alpha
estimation methodologies: the Fama-French three-factor model, the Carhart four-
factor model, and a robust estimation of the basic market model based
on Student-t distributed errors. None of these methodologies eliminates the
problem.
While more research is required to identify the mechanism that causes these
strong variations in the estimations of the alpha, one recommendation to both
practitioners and academics is to concentrate on the sample of funds for which the
sign and significance of the alpha does not vary. These funds have statistics that
are positive and significant, negative and significant, or insignificant, independent
of the reference day used in their estimation and thus represent the only measures
that are robust enough to support reliable inferences.
Note
1. As the small size of the coefficient may be due to non-linearities in the data, we
also estimate a similar model where we add the square of the reference day as
another regressor. While the coefficients obtained are both significant and have
different signs, hinting at a U-shaped relationship between the reference day and
the alpha, the sizes of the coefficients and R-squared remain minute, confirming
the lack of explanatory power of the reference day.
ORCID
Roberto Stein http://orcid.org/0000-0003-4069-0192
155
References
Acker, D., & Duck, N. W. (2007). Reference-day risk and the use of monthly returns data. Journal of
Accounting, Auditing & Finance, 22(4), 527–557. http://dx.doi.org/10.1177/0148558X0702200403.
Cademartori, D., Romo, C., Campos, R., & Galea, M. (2003). Robust estimation of systematic risk
using the t distribution in the chilean stock markets. Applied Economics Letters, 10(7), 447–453.
http://dx.doi.org/10.1080/1350485032000082018A.
Carhart, M. M. (1997). On persistence in mutual fund performance. The Journal of Finance, 52(1),
57–82. http://dx.doi.org/10.1111/j.1540-6261.1997.tb03808.x
Close, J. (1952). Investment companies: Closed-end versus open-end. Harvard Business Review,
29, 79–88.
Cremers, M., Petajisto, A., & Zitzewitz, E. (2013). Should benchmark indices have alpha? Revisiting
performance evaluation. Critical Finance Review, 2(1), 1–48.
http://dx.doi.org/10.1561/104.00000007
Dimitrov, V., & Govindaraj, S. (2008). Reference-day risk: Observations and extensions. Journal of
Accounting, Auditing & Finance, 22(4), 559–572. http://dx.doi.org/10.1177/0148558X0702200404
Elton, E., Gruber, M., Das, S., & Hlavka, M. (1993). Efficiency with costly information: A
reinterpretation of evidence from managed portfolios. Review of Financial Studies, 6(1), 1–22.
http://dx.doi.org/10.1093/rfs/6.1.1
Fama, E. F., & French, K. R. (1993). Common risk factors in the returns on stocks and bonds.
Journal of Financial Economics, 33(1), 3–56. http://dx.doi.org/10.1016/0304-405X(93)90023-5
Ferson, W., & Schadt, R. (1996). Measuring fund strategy performance in changing economic
conditions. The Journal of Finance, 51(2), 425–461. http://dx.doi.org/10.1111/j.1540-
6261.1996.tb02690.x
Gonzalez, M., Rodriguez, A., & Stein, R. (2014). Adjusted betas under reference day risk. The
Engineering Economist, 59(1), 79–88. http://dx.doi.org/10.1080/0013791X.2013.855855
Jensen, M. C. (1968). The performance of mutual funds in the period 1945–1964. The Journal of
Finance, 23(2), 389– 416. http://dx.doi.org/10.1111/j.1540-6261.1968.tb00815.x
Malkiel, B. G. (1995). Returns from investing in equity mutual funds 1971 to 1991. The Journal of
Finance, 50(2), 549– 572. http://dx.doi.org/10.1111/j.1540-6261.1995.tb04795.x
Otten, R., & Bams, D. (2004). How to measure mutual fund performance: Economic versus
statistical relevance. Accounting and Finance, 44(2), 203–222. http://dx.doi.org/10.1111/j.1467-
629X.2004.00105.x
Pástor, L., & Stambaugh, R. (2002). Mutual fund performance and seemingly unrelated asstes.
Journal of Financial Economics, 63(3), 315–349. http://dx.doi.org/10.1016/S0304-405X(02)00064-8
Ross, S. (1976). The arbitrage theory of capital asset pricing. Journal of Economic Theory, 13(3),
341–360. http://dx.doi.org/10.1016/0022-0531(76)90046-6
156
Stambaugh, R. (1983). Arbitrage pricing with information. Journal of Financial Economics, 12(3),
357–369. http://dx.doi.org/10.1016/0304-405X(83)90054-5
Stambaugh, R. (1997, February). Analyzing investments whose histories differ in length. (Working
Paper 5918). Cambridge, MA: National Bureau of Economic Research, Inc.
http://dx.doi.org/10.3386/w5918 Taylor, J., & Verbyla, A. (2004). Joint modelling of location and
scale parameters of the t distribution. Statistical
Modelling, 4(2), 91–112. http://dx.doi.org/10.1191/1471082X04st068oa
157
UNA ESTRATEGIA PARA GESTIONAR EL CAPITAL DE TRABAJO DE LA
MIPYME
Víctor Valenzuela Villagra
Académico Universidad Andrés Bello - Facultad de Economía y Negocios - Sede
Santiago- Campus Los Leones
Av. Los Leones 745, Piso 8 Providencia – Santiago
Teléfonos: 227703050 -971421063
Resumen
El objetivo de este trabajo es proponer un camino técnico a seguir por la MIPyME
para resolver el dilema de la liquidez versus la rentabilidad. De ello depende pasar
la travesía por el desierto de los primeros dos años. Se propone además cómo
resolver conceptualmente el problema.
En lo teórico se ha utilizado el concepto de Capital de Trabajo Operacional, para
destacar la diferencia entre determinar el capital de trabajo por medio de los
balances en base a la contabilidad, versus determinarlo por el flujo de efectivo
necesario para las operaciones.
No se dispone de una investigación de campo formal, para sostener la hipótesis
de que este es un problema crítico en la MIPyME, pero es la experiencia del autor
en dirección financiera y como empresario, unido a la docencia universitaria en
distintas instituciones y asesoría de empresarios a través de Asexma AG, que le
han permitido descubrir que es un problema constante y de ello diseñar una forma
de abordar la solución del problema.
La conclusión principal es que hacerse cargo del problema y aplicar una solución
no compleja, puede tener un alto impacto en la permanencia de la empresa en el
tiempo. Hay que equilibrar la liquidez con la rentabilidad, utilizando como
herramientas el presupuesto de operaciones y el presupuesto de caja.
158
Lo primero es medir el fondo de maniobra operacional y luego, se determina el
capital de trabajo que lo financiará, que por su carácter permanente, debiera
pensarse en que una parte sea capital de trabajo de largo plazo.
Palabras clave: Liquidez, Rentabilidad, Capital de Trabajo, Fondo de Maniobra
Abstract
The objective of this paper is to propose a technical way to follow by MIPyME in
order to solve the dilemma of liquidity versus profitability. The journey through the
desert of the first two years depends on it. Besides, it is proposed a conceptual
way to solve the problem.
The concept of Operational Work Capital has been used to stand out the difference
between establishing work capital through balances based on accounting against
defining it by the necessary cash flow for operations.
Despite the lacking of a formal investigation to support the thesis that this is a
critical problem of MIPyME, basing on the experience of the author in financial
direction and as a businessman, and also the university teaching in many different
institutions, and giving advice to businessmen through Asexma AG it is possible to
design a solution for this frequent problem.
The final conclusion is that dealing with the problem and the applying a non-
complex solution, may have a high impact on the permanence of the company over
time. Liquidity must be balanced with profitability, using operating budget and cash
budget as tools.
Measuring the operational maneuver fund is the first thing to do. Then, establishing
the work capital that will finance it. And, because this capital is permanent, a part of
it should be long term.
Key words: Liquidity, Profitability, Working Capital, Maneuver Found.
159
Introducción
La MIPyME que pasa no pasan el año de vida en Chile se estima en más de 2.000
(Ministerio de Economía. División de Estudios., 2015), la tasa de fracasos es
definitivamente muy alta; y esto no sólo es en el nivel local pues esto se repite en
muchos países, donde no es factible o no hay la voluntad real para apoyarlos en el
inicio.
La quiebra de una MIPyME, y esto es válido para cualquier empresa, sólo pasa
por dos razones si es que el negocio medianamente se justifica al menos. Se va a
la quiebra por un problema de liquidez o por un problema de rentabilidad, y la
mayoría de las veces, es por razones de liquidez. La paradoja es que al
empresario que le va muy bien desde el comienzo, es el que más corre riesgo de
quiebra, porque cae en el “pecado de la inversión involuntaria”.
Es el empresario quien debiera ser consciente de ello y gestionar sus finanzas con
“el caballo tomado de ambas riendas”: liquidez y rentabilidad. Lo más probable es
que no lo sepa, pero, aunque lo supiera, se trata el problema de que liquidez y
rentabilidad son antagónicas entre sí y hay que manejar un equilibrio entre ellas.
Las dificultades devienen cuando manejar este equilibrio se escapa de las manos,
y comienzan a aparecer las inversiones involuntarias.
El objetivo de este trabajo es destacar un problema crítico para el MIPyME,
sugiriendo una hipótesis de por dónde deviene el problema y proponiendo un
camino de solución. Se parte por destacar la principal dificultad del emprendedor
para continuar: entra en la quiebra prematura. Por lo demás, es también un temor
antes de decidir ser emprendedor.
La bibliografía tradicional para tratar el tema enfatiza la determinación mediante
ratios que surgen de los balances contables, pero ese criterio obvia el hecho de
que el capital de trabajo se determina en base efectivo y no de devengado. Hay
algunos trabajos que utilizan el concepto útil para la gestión en base efectivo, pero
abordan otras problemáticas del capital de trabajo.
160
Marco Teórico
La gestión del capital de trabajo es un tema ampliamente abordado en la literatura
financiera, y se usa la denominación de capital de trabajo (Brigham & Houston,
2005), capital circulante (Shim & Siegel, 2004) o fondo de maniobra (Faus, 1997).
Al hablar de capital de trabajo o de capital circulante, sin embargo, no siempre se
está hablando de lo mismo. Se distingue en ambos casos un capital de trabajo o
activo circulante neto, por referirse a la diferencia entre el capital de trabajo bruto o
activo circulante y el pasivo circulante. El valor neto coincide con lo que en otra
literatura se denomina fondo de maniobra, concepto que a su vez coincide con
otro concepto, la necesidad operativa de fondos (NOF) (Genoni & Zurita, 2004).
Esta diversidad no sólo es semántica sino también conceptual, lo cual desafía a
ponerse de acuerdo en, ¿de qué estamos hablando?
La literatura también es abundante en entender por gestión o administración del
capital de trabajo, a la optimización de la inversión en las partidas componentes,
proponiendo modelos teóricos para optimizar cada partida y de ese modo
optimizar la inversión total en capital de trabajo. Para la gestión del efectivo se
suele sugerir el modelo de Miller-Orr (Brealey & Myers, 1993) y (Shim & Siegel,
2004), para gestionar los inventarios se suele sugerir el ABC de Pareto y el
modelo de Beaumol de lote económico de compras (Van Horne & Wachowicz,
2002) y para los documentos por cobrar se proponen políticas de otorgamiento de
crédito, descuentos por pronto pago y otras (Gitman, 2003).
Se pone énfasis en la idea de gestión, para independizarlo del concepto estático
de capital de trabajo contable, basado además en el criterio de devengado, que se
aleja del concepto de efectivo que es el requerido para gestionar. Otra diferencia
con el concepto contable, es que en el Activo Corriente (NIC 1.66 y NIIF 5.A)
(IFRS Foundation, 2013) o Circulante hay componentes que no están en directa
relación con el giro del negocio, luego no son operacionales. Hay por último una
diferencia en la forma de llamar a esta gestión entre la denominación española
que le llama tesorería (Fernández P. & Casanovas R., 2003) y la denominación
anglo que la denomina capital de trabajo (Brealey & Myers, 1993), (Gitman, 2003).
161
¿Para qué gestionar el capital de trabajo?
Primero aclaremos qué se está entendiendo aquí por capital de trabajo. Nos
referimos a lo que el empresario intuitivamente entiende por capital de trabajo, que
es aquella inversión que le permite “abrir la cortina todos los días”, es el capital
que pone en operación a diario y con el que genera la rentabilidad de su negocio.
La literatura financiera llama a esto Necesidad Operacional de Fondos (Copeland,
Koller, & Murrin, 2000) y correspondería financieramente a la parte del activo
circulante o corriente, que no se financia en forma automática o espontánea, por el
ejercicio del giro del negocio, es decir no es financiado por crédito de proveedores.
Sería entonces el Activo Circulante Necesario para las Operaciones (ACNO),
menos el Pasivo Circulante Necesario para estas Operaciones (PCNO). Lo
primero es saber cuánto es el monto de esta diferencia y luego, hay que saber
cómo se va a financiar.
El ACNO se constituye sumando el efectivo a mantener diariamente, el dinero a
mantener invertido en mercaderías y las cuentas por cobrar, que es el dinero que
mantenemos en la calle cuando damos crédito. A esto hay que agregar el IVA
Débito que se ha devengado en la venta, pero que no hemos recaudado por hacer
ventas a crédito, pues la primera suma está a valores netos. Esta suma de
partidas se corresponde normalmente con el activo circulante o corriente que
aparece en balances, pero con el pecado de que es un valor neto de IVA y puede
inducir errores de cálculo; y tiene la particularidad de ir y venir, por ello se dice que
el ACNO o capital de trabajo bruto operacional rota en un período comercial. A
este grupo de partidas se le llama también simplemente Capital de Trabajo Bruto,
dando por subentendido que nos referimos al ACNO.
El PCNO se constituye del crédito que nos dan los proveedores de los recursos
productivos, típicamente las compras de bienes y servicios que son cuentas por
pagar, más las remuneraciones por pagar y el IVA por pagar (IVA Débito menos
IVA Crédito). Cuando nos tomamos de las cifras contables, hay una diferencia
justamente por el IVA, la diferencia entre el débito y el crédito es para la empresa
una necesidad de capital de trabajo, es fondo de maniobra. Si se retrasa el pago
162
del IVA mensual, adicional a las multas y reajustes (Ministerio de Justicia, 1998),
el SII suspende el timbrado de facturas y boletas, eso trae retraso en la facturación
y alargamiento de las cobranzas. La relevancia del IVA en el cálculo del fondo de
maniobra, no se ha abordado en la literatura chilena, con las implicancias que ello
conlleva (Gutiérrez, 1994) y (Sapag, 2007).
En consecuencia, el responsable de las finanzas debe hacerse cargo de conseguir
financiamiento, para la diferencia que se produce entre el ACNO y el PCNO, y en
este esfuerzo se ve compelido a lidiar con dos objetivos fundamentales. El
primero, Liquidez para lograr que sus compromisos corrientes sean cancelados en
forma oportuna: remuneraciones, impuestos, créditos bancarios, proveedores,
gastos de servicios, cartas de crédito, arriendos. El segundo, Rentabilidad para
lograr que el proyecto empresarial se asegure en el tiempo, justificando el costo de
oportunidad de los fondos y el riesgo operacional asumido. A la diferencia entre
ACNO y PCNO se le llama Capital de Trabajo Neto o también Fondo de Maniobra,
y expresa la cantidad de dinero necesaria a financiar para la continuidad del
negocio.
La respuesta a la pregunta se complica, porque su solución dista de ser una
ciencia exacta, lo que no descalifica el uso de las herramientas técnicas. El dilema
real es que Liquidez y Rentabilidad tienden a ir en sentido contrario. Esto significa
que cuando se quiere hacer más productiva la empresa invirtiendo en las
operaciones, simultáneamente se compromete la liquidez; se arriesga a que los
dineros inmovilizados transitoriamente en el proceso productivo, no estén
disponibles para pagar cuentas o para aprovechar oportunidades de hacer buenos
negocios, con la ventaja que da la liquidez, por ejemplo, se puede reducir el
margen de maniobra para hacer compras que consideramos oportunas y luego,
debamos comprar de urgencia otras cosas necesarias en peores condiciones.
La respuesta al problema requiere no sólo conocimiento técnico, sino también de
mucha experiencia para manejar la contingencia que es siempre cambiante. Una
163
empresa se puede ir a la quiebra básicamente por dos razones. La empresa
puede quebrar por problemas de que no es rentable o bien, puede quebrar porque
no tiene liquidez para cumplir con sus pagos. Se da la paradoja de que un negocio
mientras más exitoso resulta, más probabilidades tiene de irse a la quiebra, pero
esto le ocurre por liquidez más que por rentabilidad, pues al tratar de seguir el
ritmo de crecimiento del negocio, se cae en mayores necesidades de capital de
trabajo que no siempre estará disponible, y este es el momento en que se sella la
suerte del negocio. En particular es de alto riesgo la llegada de “el gran cliente”, el
que hará grandes pedidos y en torno al cual está “el canto de las sirenas” de gran
rentabilidad. El cementerio está lleno de empresas exitosas en su mercado, pero
que se fueron a la quiebra.
El uso de herramientas como el presupuesto de operaciones para gestionar la
rentabilidad operacional y del presupuesto de caja para gestionar la liquidez,
resulta indispensable para el manejo profesional de las finanzas, pero no asegura
el éxito ni inmunización contra las dificultades. El utilizarlas permite al menos evitar
cerrar el negocio por incompetencia profesional, en la gestión financiera.
Sin duda que siempre se quiere hacer un esfuerzo por aumentar la rentabilidad del
negocio, pero el mensaje aquí es que siempre es con el riesgo de entrar en
problemas de liquidez.
Lo antes dicho obliga a hacer una precisión fundamental: y es que cuando
hablamos de fondos de maniobra operacional, estamos hablando de una decisión
de inversión; pero cuando hablamos de capital de trabajo, hablamos de decisiones
de financiamiento.
¿Por qué Liquidez y Rentabilidad son antagónicas?
Para que un negocio o proyecto pueda entrar en ejecución es necesario invertir.
La única posibilidad de obtener rentabilidad es asumir el riesgo de la inversión, por
lo tanto, invertir es poner a trabajar el dinero. Al poner a trabajar el dinero lo
164
sacamos de su situación líquida y lo convertimos en existencias, remuneraciones,
ventas al crédito, pago de servicios, etc. La esperanza es que cuando concluya
todo el proceso de producción y venta, habremos completado un ciclo en el que
retorna nuestro efectivo con un adicional llamado rentabilidad, y ¿por qué no?
también habrá terminado el estrés del riesgo que asumimos. Durante todo el
proceso estuvimos reduciendo la liquidez. Por el contrario, si tenemos el dinero en
efectivo y no nos atrevemos a hacer el negocio, estaremos con mucha liquidez,
pero la rentabilidad será nula y en estricto rigor negativa, por el valor del dinero en
el tiempo.
Mientras más ciclos exitosos podamos realizar, mayor será la rentabilidad. El
capital de trabajo bruto (ACNO) es el que rota, y puede rentabilizar sólo cuando
puede rotar.
El ACNO sólo puede rotar cuando deja de estar líquido; puesto que hay que
invertirlo en el proceso productivo, comprar, procesar, comercial y cobrar.
¿Cuándo el problema es de liquidez o es de rentabilidad?
Lamentablemente ambos tienen el mismo síntoma. Cuando hay problemas de
liquidez, el empresario dice no tener dinero para pagar. Cuando hay problemas de
rentabilidad, el empresario dice no tener dinero para pagar. Ocurre que en ambos
casos el dinero no está, pero es por distintas razones. Cuando hay falta de
liquidez el negocio puede ser muy rentable contablemente, algún día se recibirá
dinero, aunque ahora no hay. El dinero está en construcciones, mercaderías,
cuentas por cobrar, está invertido y por tanto no está líquido. Cuando hay falta de
rentabilidad, el dinero no está porque no ingresa lo suficiente, los costos y gastos
son más que los ingresos.
El confundirlos lleva a grandes problemas, por ejemplo, si el empresario ve que no
hay dinero y está soportando un aumento de ventas, es casi obvio que es un
problema de liquidez, pero a veces se empieza a tratar de recortar costos
165
pensando que es un problema de rentabilidad, o peor aún, se intenta incrementar
las ventas porque se busca aumentar ingresos, agravando el problema. Esta es
muchas veces lo que lleva a la quiebra, pues se olvida que hay que invertir
primero, para luego vender.
¿Cómo aumentar la rentabilidad del negocio?
Sólo tenemos dos posibilidades, no excluyentes entre sí: aumentar el margen y/o
aumentar la eficiencia en la gestión del ACNO o capital de trabajo bruto
operacional. Si estamos en un mercado competitivo, el margen es difícil de
aumentar, por lo tanto, la única posibilidad es ser más eficientes y entonces
tenemos a su vez, dos nuevos caminos, para aumentar la rentabilidad del
negocio, posibilidades que no son excluyentes entre sí, por tanto, podemos
abordar ambos caminos.
La primera es tratar de rotar más rápido el ACNO. La segunda, consiste en
intentar disminuir los montos invertidos en cada partida que compone este capital
de trabajo bruto operacional, pero para un mismo nivel de operaciones, y esto se
logra partiendo por reducir el monto que se mantiene en disponible. Por ejemplo,
hay empresas que mantienen mucho efectivo en caja por precaución; mientras, los
destinan a inversiones en el mercado financiero, como una buena salida para el
exceso de liquidez. Sin embargo, hay que recordar que esto generaría ingresos no
operacionales que son beneficios que no son parte del giro ni de los riesgos
propios del negocio y lo que debemos hacer es mejorar la rentabilidad de nuestro
giro. Otra situación típica es que también, hay que hacer esfuerzos por reducir el
monto que se tiene en ACNO que no es tal, en existencias. Puede ser que uno o
varios ítems del inventario estén sobredimensionados. Tal vez queriendo
conseguir un buen precio, se ha adquirido una gran cantidad. Otro problema es el
saldo que se mantiene en cuentas por cobrar: ¿cuánto es negligencia por no hacer
acciones de cobranza? ¿Son adecuados los plazos de crédito otorgados?
166
¿Debemos seguir dando crédito directo a nuestros clientes o podemos
vender con tarjeta de crédito?
Aquí se puede observar otra diferencia cuando estamos midiendo estas cifras a
través de la contabilidad, en vez de hacerlo en un sentido financiero. Las cifras
contables en sus saldos ocultan para las existencias: inventarios obsoletos, robos
y mermas; también las diferencias del sistema de valoración del inventario, están a
valores históricos. Los saldos de cuentas por cobrar ocultan a los incobrables y
efectos de la moratoria.
¿Cómo aumentar la rotación del ACNO?
Esto se logra acortando los tiempos de permanencia en todas o en alguna de las
componentes del capital de trabajo. Esto puede consistir en reducir el tiempo de
permanencia del dinero en inventarios, ya sea en abastecimientos y/o en
fabricación; reducir el tiempo que el dinero está en cobranza de cuentas y proceso
de ventas, esto es, haciendo más diligente nuestra cobranza y agilizando la salida
de artículos terminados, tanto en el despacho como en la acción de vender, para
facturar más rápido y activar el plazo de cobranza.
Una misma rentabilidad en pesos del capital de trabajo se puede obtener, cuando
unas pocas unidades dan muchas vueltas en el año, o cuando más unidades rotan
más lento. Es la decisión de si hacer la rentabilidad en el margen o hacerla en la
rotación.
¿Por qué una empresa rentable puede ir a la quiebra?
Parece ilógico que una empresa que genera rentabilidad pueda ir a quiebra, pero
la paradoja es que un proyecto exitoso tiene presiones continuas para aumentar
sus ventas, lo que promete mayor rentabilidad. Pero el problema emerge cuando
se deben financiar mayores operaciones; se requiere liquidez adicional, lo que no
167
siempre se puede asegurar. Si la empresa se involucra en mayores volúmenes de
operación, siempre generará compromisos de deuda y tarde o temprano, la falta
de liquidez se hará crítica y no se cumplirán las obligaciones de pago. Es probable
que tampoco se cumpla a los clientes. Recuerde que siempre hay que hacer el
proceso productivo previamente, para cobrar con posterioridad.
Las soluciones al problema dependen de si se hace una adecuada planificación
financiera, que permita conseguir el financiamiento para los nuevos usos de
capital, coordinando los presupuestos de operaciones con los presupuestos de
caja que se generan. Si ya tenemos el problema encima y hay que “apagar el
incendio”, será con mucha más tensión. A veces será frustrante, porque
dependerá de la voluntad de proveedores y bancos que nos califiquen como
sujetos de crédito.
Conviene ser muy cauto al decidirse por un aumento en el nivel de operaciones.
La regla de oro es: el único crecimiento posible es el financiado, pues no existe
activo sin pasivo que lo financie.
Para ser honestos, la MIPyME se mete en problemas financieros cuando está
enceguecido porque está teniendo éxito. Se olvida de todo y en forma legítima
trata de capturar las utilidades de su éxito. Comienzan a aparecer las inversiones
no planeadas, espontáneas, por inercia o las inversiones sin querer (Preve, 2000).
El negocio crece, demanda más capital de trabajo operacional pues crecen los
inventarios, el monto en cuentas por cobrar y requerimientos de disponible para
eventualidades. Normalmente crecen también los PCNO, pero inevitablemente
aumentará la necesidad de financiar más Fondo de Maniobra o Capital de Trabajo
Neto (Gitman, 2003).
Decimos que son inversiones espontáneas, porque al seguir el ritmo del negocio,
ya sea porque las ventas aumentaron o porque el proceso productivo demanda
nuevas inversiones, para estar a tono con las nuevas condiciones, parecen ser
inevitable. El desafío es no interrumpir el camino al éxito. Primero se consumirán
las utilidades que entran a caja, luego comenzará el problema de conseguir
168
financiamiento pues la liquidez nos aprieta. Hay mayor necesidad de ACNO y para
ello deberemos proveer más capital de trabajo. Esto quiere decir que tenemos un
problema de financiamiento para inversiones extra, el capital de trabajo es eso,
para permitir que el ACNO pueda concretarse y rotar. ¿No es esa, acaso la
aspiración de todo emprendedor?
¿Cómo financiar nuevas necesidades de ACNO?
Para no perder el norte, recordemos que hay que equilibrar liquidez con
rentabilidad. Ello requiere saber cuánta es la nueva necesidad de ACNO, para
determinar el Capital de Trabajo Neto o Fondo de Maniobra a financiar.
Habíamos planteado que la gran ventaja de tener liquidez es que permite la
flexibilidad, esto significa tomar la iniciativa, cuestión fundamental en los negocios.
Cuando la empresa pierde la liquidez, cede la iniciativa a los acreedores, por lo
tanto, sólo puede ser reactivo y eso tiene costos para el negocio.
Adicionalmente, hay que decir que cuando se toman decisiones relativas a la
estructuración de los Activos y Pasivos de la empresa, es necesario que se
planifique de modo que existan fuentes de largo plazo financiando parte del capital
de trabajo operacional (Genoni & Zurita, 2004) y, por supuesto, también todos los
activos de corto plazo.
Un error muy frecuente cuando no se tienen los estudios o la experiencia, es
observar que las empresas prefieren tomar deudas de corto que de largo plazo, en
la equivocada idea de que es mejor pagar luego para ahorrar en intereses, de
modo que terminan financiando activos permanentes con corto plazo y al final no
pueden cumplir con los pagos, aunque la empresa sea tremendamente rentable.
Peor aún, hay casos en que se pretende financiar activos de largo plazo con
activos de corto plazo, obviamente es un problema de base, no hay activo sin
pasivo que lo financie. Es el caso por ejemplo de un entusiasta hincha que dirige
un club de futbol y toma la decisión de construir un estadio, financiado con las
169
cuotas de los socios, entradas al estadio y derechos de televisión. Estaría
financiando activos fijos con cuentas por cobrar. Se debe ir a la quiebra
obligadamente, pues su capital de trabajo neto será negativo y al no tener
financiados los activos fijos con pasivos permanentes, el flujo de caja pasará
desde el activo de corto plazo al de largo plazo, para quedarse estacionados a
perpetuidad. Luego no habrá liquidez y se paralizarán las obras del estadio, no
pagaremos los sueldos a los jugadores, tampoco el agua y la luz. No podemos
sacar un pedacito del activo fijo para pagar la deuda de hoy.
¿Cuál es la estrategia para resolver el problema?
La solución técnica para lograr el equilibrio es recurrir a dos herramientas básicas:
el Presupuesto de Operaciones y el Presupuesto de Caja.
Las herramientas referidas deben estar orientadas a la gestión de corto plazo, que
es la esencia del Fondo de Maniobra. Para gestionar la liquidez usamos
principalmente el presupuesto de caja y para gestionar la rentabilidad usamos
principalmente el presupuesto de operaciones. Ambos presupuestos deben ser
perfectamente compatibles entre sí, esto es: los objetivos propuestos en el
presupuesto de operaciones son posibles o no, dependiendo de lo que nos arroje
el presupuesto de caja. Si este último presenta déficit, significa que no se puede
llevar a cabo el presupuesto de operaciones, ya que no está financiado.
El saldo acumulado que arroja el presupuesto de caja, es el flujo de caja que hay
que conseguir para mantener las operaciones en el nivel deseado. Esta es la
forma más correcta de medir el Fondo de Maniobra o Capital de Trabajo Neto.
Esta cifra, es el dinero necesario para mantener la liquidez que le dará continuidad
al negocio.
El presupuesto de operaciones es la forma más correcta, de estimar la rentabilidad
del negocio en el corto plazo y debe construirse por costeo variable, valorando a
costos de reposición, nunca por costeo absorción ni costos históricos. Este
170
presupuesto también se llama Presupuesto del Punto de Equilibrio, porque nos
muestra el resultado o rentabilidad operacional a obtener, dependiendo del nivel
de operaciones (producción y ventas), en que uno de los niveles informados es la
decisión que el empresario ha tomado.
Hay que tener en cuenta que cualquier equilibrio que encontremos para la liquidez
y la rentabilidad de un negocio, está permanentemente amenazado, tanto por
cuestiones externas como internas. Los saldos de efectivo se ven afectados
cuando la economía está entrando en una baja de la actividad económica, se
acumularán inventarios, la cobranza estirará sus plazos. Ingreso de competidores,
que afecten la participación de mercado. También se afectan por cambios en el
nivel de precios o cambios en los precios relativos, ya que, si los precios de
nuestros insumos suben, deberemos reponer stock con una mayor cantidad de
efectivo, por ejemplo. Afectan los cambios en la política tributaria, cambios en el
mercado del empleo, huelgas en los puertos, proyectos agresivos de la
competencia, etc. Entre los factores internos podemos tener un cambio en la
política de ventas, nuevos productos, campañas publicitarias, etc. Las decisiones
de producción son otra fuente de cambios de los saldos de efectivo, cambios en
las líneas de producción, cambios en los programas de abastecimientos,
decisiones de subcontratación, entre otros. Las políticas de recursos humanos, por
ejemplo, el mecanismo de incentivos, el pago de anticipos, convenios colectivos,
etc.
Si el presupuesto de caja resulta deficitario y no podemos aplicar alguna solución
posible, debemos desechar ese nivel de operaciones, ya que nos conducirá de
seguro a un grave problema de liquidez, porque no lo podemos financiar, a alguien
no le pagaremos y vendrán problemas legales además de los financieros. Sólo
debiéramos perseguir la rentabilidad en el nivel de operaciones en que podamos
asegurar la liquidez, y en esto, el presupuesto de caja tiene la última palabra.
Ambos presupuestos, operaciones y caja, deben ser congruentes.
Por último, hay que tener en vista síntomas de que podemos estar en entrando en
problemas: si estamos pagando el IVA o las remuneraciones con la línea de
171
crédito, nos estamos atrasando con las imposiciones legales o incluso, hay que
parar producción por falta de abastecimientos.
¿Usamos cifras contables?
La contabilidad no está diseñada para resolver estos problemas, aunque se usa
vocabulario contable, lo cual ayuda a la confusión.
Las cifras contables son históricas de acuerdo a documentación de respaldo, pero
por ejemplo las existencias están valoradas de acuerdo a un sistema de
promedios típicamente en nuestro país y no reflejan costos de reposición de estas
existencias.
Las cifras contables están en base devengado, y lo que se requiere es saber es el
momento en que entra y sale efectivo.
Las cifras contables y los ratios financieros están a valores netos, sin IVA y para
medir el flujo de caja necesitamos los valores brutos.
Las cifras contables ocultan “mochilas de ineficiencia”, pues no es tan
transparente saber si están sobredimensionadas. En las existencias siempre hay
robos, mermas y obsolescencias, pero los saldos aparecen por el total. En
documentos por cobrar, siempre hay incobrables y moratoria, pero las cifras
muestran el total devengado. Para llevar estos saldos a sus valores eficientes,
debemos seguir protocolos que requieren tiempo y costos, como dar cuenta formal
de los robos, hacer constar las obsolescencias y agotar acciones de cobro.
Conclusiones
Un negocio para permanecer en el tiempo y evitar la quiebra, debe lograr
mantener liquidez y alcanzar rentabilidad. Ambas son fuerzas antagónicas. Si nos
entusiasmamos con una, siempre será a costa de la otra.
172
Los problemas provienen normalmente de tener éxito en un negocio, pues
comienzan a abundar las inversiones espontáneas o sin querer. Nos metemos en
problemas de liquidez porque debemos aumentar el capital de trabajo para
financiar nuevas operaciones. El camino no es fácil y se debe lidiar con
proveedores y bancos, que comienzan a perder confianza cuando nos ven en
problemas de retraso en los pagos. Si no resolvemos el problema, se va derecho a
la quiebra, a pesar de tener una propuesta de negocios exitosa.
Para calibrar la magnitud del problema, es necesario saber cómo tomar la
temperatura del negocio, por eso las herramientas son referidas a la gestión de
corto plazo, que es la esencia del capital de trabajo operacional. Para gestionar la
liquidez usamos principalmente el presupuesto de caja y para gestionar la
rentabilidad, usamos principalmente el presupuesto de operaciones. Ambos
presupuestos deben ser perfectamente compatibles entre sí, pues los objetivos
propuestos en el presupuesto de operaciones son posibles o no, dependiendo de
si el presupuesto de caja presenta déficit. Un déficit acumulado significa que no se
puede llevar a cabo el presupuesto de operaciones, ya que no está financiado, a
menos que consigamos financiamiento con más capital de trabajo. De lo contario
debemos desechar ese nivel de operaciones, ya que nos conducirá de seguro a
un grave problema de liquidez, porque no lo podemos financiar, a alguien no le
pagaremos y eventualmente nos vendrán problemas legales además de los
financieros. La regla de oro es que sólo debiéramos perseguir la rentabilidad en el
nivel de operaciones, en que podamos asegurar la liquidez, y en esto, el
presupuesto de caja tiene la última palabra. Ambos presupuestos, operaciones y
caja deben ser congruentes.
Lo primero que se debe hacer, es medir el fondo de maniobra operacional y luego,
se determina el capital de trabajo que lo financiará, que por su carácter
permanente, debiera pensarse en que en parte sea capital de trabajo de largo
plazo.
173
Referencias Bibliográficas.
Brealey, R. A., & Myers, S. C. (1993). Fundamentos de Financiación Empresarial. Cuarta edición.
Madrid: Mc Graw-Hill.
Brigham, E. F., & Houston, J. F. (2005). Fundamentos de Administración Financiera Décima
Edición. México: Thomson.
Copeland, T., Koller, T., & Murrin, J. (2000). Valuation. John Wiley & Sons.
Faus, J. (1997). Finanzas Operativas. Barcelona: Estudios y Ediciones IESE.
Fernández P., A., & Casanovas R., M. (2003). La gestión de la tesorería en la incertidumbre.
Madrid: Pirámide.
Genoni, G., & Zurita, S. (2004). Capital de trabajo, gestión de tesorería y valuación de empresas.
Estudios de Administración, vol. II N°1, 39-53.
Gitman, L. J. (2003). Principios de Administración Financiera. México: Pearson Addison Wesley.
Gutiérrez, H. (1994). Evaluación de Proyectos ante Certidumbre. Santiago, Chile: PIAE Universidad
de Chile.
IFRS Foundation. (2013). Normas Internacionales de Información Financiera. Parte B. London:
IFRS Foundation Publications Department.
Ministerio de Economía. División de Estudios. (2015). Insolvencia y quiebra en Chile. Principales
estadísticas desde 1982 a la fecha. Santiago.
Ministerio de Justicia. (1998). DL 830 Código Tributario. Santiago: Editorial Jurídica de Chile.
Preve, L. (2000). Las Inversiones sin Querer. InfoPYME, 1-5.
Sapag, N. (2007). Proyectos de Inversión. Formulación y Evaluación. México: Pearson Prentice
Hall.
Shim, J. K., & Siegel, J. G. (2004). Dirección Financiera 2° Edición. Madrid: Mc Graw-Hill.
Van Horne, J. C., & Wachowicz, J. M. (2002). Fundamentos de Administración Financiera.
Undécima Edición. México: Pearson Educación.
174
ANÁLISIS DE PROBLEMAS QUE ENFRENTAN EMPRENDEDORES DE MIPYMES DEL CENTRO DE COPIAPÓ
Analysis of problems faced by MSMEs entrepreneurs in Copiapó City’s Downtown
Natalia Bravo Bassi
Ingeniera Comercial, UAI
Magíster en Innovación y Emprendimiento, UAI
Académica de Universidad de Atacama
Copiapó, Chile
RESUMEN
En este artículo, se realiza un análisis de los problemas que enfrentan
emprendedores del centro de la ciudad de Copiapó, basándose en sus
percepciones y experiencias. Debido a que existe poca información sobre
emprendimientos copiapinos, se realiza una investigación cualitativa y de carácter
exploratorio. Mediante entrevistas a 20 emprendedores, se logran encontrar
problemáticas comunes, destacando que pese a la gran cantidad de fuentes de
financiamiento destinado a emprendedores, el problema más importante es la falta
de capital para reinvertir en los emprendimientos. Esto lo asocian principalmente a
que los fondos gubernamentales son de difícil acceso y la banca les exige un alto
número de requisitos (aún mayores que a las grandes empresas) para la obtención
de créditos y a altas tasas de interés, aumentando el riesgo para el emprendedor.
Por otra parte, la administración de recursos humanos es una de las debilidades de
los emprendimientos debido a que no ofrecen sueldos competitivos, produciendo
alta rotación y falta de compromiso del personal. Estas áreas influyen en el
crecimiento y sustentabilidad de los emprendimientos, presentando problemas que
se deben solucionar debido al alto porcentaje (alrededor del 65%) de empleo que
generan, en la comuna de Copiapó, los emprendimientos clasificados como
mipymes.
Palabras claves: Emprendimiento, mipymes, Copiapó, experiencias de
emprendedores, percepciones, problemas para emprender, actores, entorno.
175
ABSTRACT
In this paper, we will make an analysis of the problems faced by entrepreneurs in
Copiapo city’s downtown, based in their perceptions and experiences. A qualitative
and exploratory research it’s made, due to the lack of information about business
ventures in Copiapo. Through 20 interviews to entrepreneurs to pin point common
problematic, we could identify that, despite the large amount of financial sources
for business ventures, the main problem is the low capital to reinvest in such
endeavors. This is associated mainly to the fact that government’s funds are hard
to access and banks demand high requirements (bigger than the ones required for
big companies) to obtain credits at high interest rates, increasing the risk for
entrepreneurs. In addition, the human resources’ management is one of the
entrepreneur’s weaknesses because they don’t offer competitive wages, producing
high rotation and low commitment of employees. This area affects the development
and profitability of these entrepreneurs, showing problems that must be solved due
to the high percentage (near 65%) of job production created by MSMEs for
Copiapo City.
Keywords: Entrepreneur, MSMEs, Copiapó, entrepreneurs’ experiences, perceptions, Business venture problems, actors, environment
Introducción
El emprendimiento es una temática que año a año adquiere mayor relevancia en
universidades, gobierno, empresas, entre otros actores, debido al rol social y
económico que representan los emprendimientos. El presente análisis busca
explorar qué problemas deben enfrentar los emprendedores de micro, pequeñas y
medianas empresas en el centro de Copiapó desde el punto de vista de Ingeniería
Comercial, es decir, considerando variables relacionadas a áreas de estudio como
Recursos humanos, Marketing y Evaluación de Proyectos.
Actualmente, existe poca información sobre emprendimientos tanto de Copiapó
como de la región, sin embargo según el proyecto Global Entrepreneurship Monitor
en Atacama los emprendimientos que llevan más de 3.5 años de funcionamiento
representan un 6,11% de la población total, siendo una de las tasas más bajas a
nivel nacional [1]. La baja proporción de emprendedores establecidos nos hace
pensar que existen problemas que impiden que los emprendimientos se mantengan
176
en el tiempo. Además, este problema adquiere relevancia al considerar que en
Copiapó las mipymes generan alrededor del 65% del empleo produciendo
aproximadamente el 71% de las ventas anuales totales [2].
Uno de los propósitos de la Ingeniería Comercial es contribuir en la productividad de
las organizaciones, objetivo que también engloba a emprendimientos de diversos
tamaños. Para alcanzar este propósito, primero se deben conocer los problemas
que se deben resolver siendo este punto el principal objetivo de este estudio.
Es importante mencionar que el emprendimiento como área de investigación aún no
logra consolidarse, debido a que su estudio se puede abordar desde la perspectiva
de la economía, antropología, contabilidad, finanzas, sicología, entre otras [3]
.Tampoco existe un consenso en cómo definir emprendedor, existiendo variadas
propuestas, destacando la definición de Gartner (1989) “Emprendimiento es la
creación de empresas” [4].
Cuando hablamos de un emprendedor, entendemos que en él convergen una gran
variedad de aristas tanto organizacionales como humanas, ya que esta persona es
creadora de una empresa, trabajadora, administradora, inversionista y , además, es
alguien con ciertos rasgos de personalidad, con necesidades, problemas y con un
valor social y económico para la sociedad en la que está inserto. Esto hace que se
propongan estudios desde el ámbito científico y desde una perspectiva de la
formación humana [5], agregando que se carece de profundidad en el estudio de
emprendedor cómo sujeto.
Actualmente existen estudios que intentan definir el emprendimiento como campo
de investigación, en dónde se ha identificado la falta de teorías relativas al
emprendimiento y el alto crecimiento en el número de investigaciones realizadas en
las últimas décadas, destacando que principalmente se realizan estudios mediante
encuestas e información secundaria, apareciendo paulatinamente estudios
realizados mediante entrevistas y estudio de casos [3].
177
FORMULACIÓN DEL PROBLEMA Y METODOLOGÍA
Copiapó posee un contexto particular, marcado por su clima, ubicación geográfica y
economía influenciada principalmente por la minería. Considerando lo anterior, en
esta sección se definen los principales antecedentes que dan origen a la
formulación del problema de estudio y se expone la metodología utilizada en la
investigación.
Antecedentes del problema: situación actual de los emprendedores de
Atacama
Un perfil de cómo son los emprendedores y emprendimientos en la región de
Atacama, ha sido entregado por el Proyecto Global Entrepreneurship Monitor (GEM)
en el año 2013-2014. EL GEM a través de la Corporación para la Competitividad e
innovación de la región de Atacama [CCIRA] concluyó que en el año 2013, un
22,89% de la población de la región de Atacama entre 18 y 64 años de edad está
involucrada en actividades emprendedoras en etapas iniciales, es decir, en
negocios que tienen entre 0 y 3,5 años de existencia. El mayor porcentaje de
emprendedores de etapas tempranas son mujeres. Atacama posee una tasa más
baja de emprendedores establecidos (empresas con 3,5 años de funcionamiento)
con un 6,11% de la población adulta. De los emprendedores en etapas iniciales
de la región, más del 50% declara haber iniciado su negocio motivado por una
oportunidad. Además, la opinión de los expertos señala que los indicadores mejor
evaluados son el acceso a la infraestructura física, normas sociales y culturales y
programas de gobierno [1].
Lo primero que se debe destacar es que el bajo porcentaje de emprendedores
establecidos puede ser un indicio de que existen problemas que impiden a los
emprendedores permanecer a lo largo del tiempo, sin embargo, estos problemas no
han sido determinados.
Lo segundo, es que en lo que respecta a Copiapó, en el 2014 la cantidad de
mipymes es de 7.419, alcanzando UF 23.524.185 en ventas, lo que representa un
178
71% (las ventas de las grandes empresas alcanzan UF 9.454.672) y otorgando
37.143 puestos de trabajo, aproximadamente un 65% (superando los 19.217
trabajadores dependientes de las grandes empresas) [2]. Esto demuestra la
importancia de las mipymes en Copiapó como entes económicos.
Planteamiento del problema y justificación
La falta de información lleva a plantear el siguiente problema: ¿Qué problemas
enfrentan los emprendedores de mipymes del centro de Copiapó? Esta pregunta es
un primer acercamiento para lograr determinar los problemas que afligen a los
emprendedores, tanto en etapas iniciales como en operación, permitiendo sentar las
bases para generar soluciones que les otorgue mayor competitividad,
sustentabilidad en el tiempo, mejores ingresos, crecimiento empresarial, satisfacción
laboral y una mejor calidad de vida. Hoy, es necesario analizar nuestro entorno en
terreno, mediante observación y entrevistas, y así entender a qué se enfrentan los
emprendedores del centro de Copiapó, qué han vivido y cuáles son sus fortalezas y
debilidades, para así generar soluciones acordes a las necesidades de éstos. Este
problema es relevante en Copiapó debido al aporte que efectúan las mipymes en la
generación de ingresos y empleo.
El centro de Copiapó es un micro entorno particular que reúne a nuevos entrantes,
rivales, sustitutos y clientes de diversos grupos socioeconómicos, empresas de
variados tamaños y rubros, siendo de fácil acceso para la población copiapina
debido a la conectividad ofrecida por el transporte público. Además, se debe
destacar que importantes instituciones de apoyo al emprendimiento como GEDES,
FOSIS, CCIRA, etc., están en el centro de Copiapó, lo que permite un mayor
acceso a nuevos y antiguos emprendedores.
179
Metodología
Este estudio es de tipo exploratorio, debido a que estudia un contexto particular (el
centro de Copiapó) y una problemática que ha sido poco estudiada (se desconoce
qué problemas enfrentan los emprendedores del centro de Copiapó) [6]. Cabe
mencionar que existe un contexto particular, en el que se desarrolla esta
investigación, no sólo lo delimita también le da características particulares. Se
desarrolla en el segundo semestre del año 2015 y primer semestre del año 2016, en
el centro de la comuna de Copiapó, acotado por las calles Salas, Rodríguez,
Chañarcillo y Talcahuano. Se debe agregar, que en el mes de marzo del año 2015
ocurre una catástrofe natural (aluvión) en la región de Atacama, afectando con
también la ciudad de Copiapó en varias zonas incluyendo el centro, provocando
daños materiales.
La muestra es por conveniencia y se incluyen 20 personas dueños de mipymes que
estén trabajando en locales establecidos dentro de la zona definida anteriormente,
sin rango de edad específico. La recolección de información se hace mediante
entrevistas.
ANÁLISIS DE RESULTADOS
Esta sección contiene dos análisis, primero se contextualiza mediante un análisis
PEST cómo es el macroentorno de los emprendedores y luego se exponen los
resultados más significativos hallados en las entrevistas.
Resultados de análisis PEST
Previamente a las entrevistas, se realiza un análisis PEST [7], para entender el
macroentorno en el que están insertos los emprendedores. De las cuatro variables
analizadas (Político-legal, Económica, Sociocultural y Tecnológica), sólo fueron
relevantes la variable político-legal y la económica.
180
La variable político legal influye en el entorno principalmente por los cambios
producidos por la Reforma tributaria (Ley 20.780), existiendo varias aristas que se
aplicarán gradualmente hasta el año comercial 2018. Se busca, en primera
instancia, acabar con la elusión y evasión de impuestos, sancionando ambos casos
e incluyendo como falta aquellos casos de simulación , otorgándole mayores
atribuciones al Servicio de Impuestos Internos y a los Tribunales Tributarios y
Aduaneros para otorgar multas de hasta 100 UTA, se aplica desde el 30 de
septiembre del 2015 [8]. Por otra parte, existen cambios en materia de impuestos,
aumentando el impuesto a la renta el 2014 a 21%, 2015 a 22,5%, 2016 a 24% y el
2017 a 25%. En cuanto al IVA, se establecen requisitos adicionales para que las
compras en supermercados y comercios similares se puedan rebajar como gasto,
con un tope de 5 UTA. Un beneficio para pymes constituidas por personas naturales
es que el 2017 si pagan impuesto global complementario pueden eximirse del
impuesto de primera categoría. Además, las mipymes podrán acceder, bajo ciertas
condiciones, a pagar el IVA hasta con dos meses de desfase [9].
En la variable económica destaca que el INACER de abril-junio 2015 (Indicador de
actividad económica regional) presentó un decrecimiento de 0,3% con respecto al
igual trimestre del año anterior, evidenciando el efecto del aluvión del 25 de marzo
del 2015, el cual provocó diversos daños materiales en la comunidad copiapina y
atacameña [10] . También se debe considerar la paralización de diversos proyectos,
afectando ambas situaciones al área de la Construcción, Comercio, Restaurantes y
hoteles, Servicios financieros y empresariales, electricidad, gas y agua y servicios
sociales, personales y comunales. Durante el periodo abril-junio 2015, el desempleo
fue de 7,4%, siendo 1,2 puntos porcentuales mayor al año anterior. Además, se
debe tener en cuenta que en la región, los ciclos económicos están fuertemente
marcados por la minería y en especial por el desempeño del cobre. Desde el 2011
se inició un decline en el precio del cobre, acentuándose este año 2015. Esto ha
hecho que las empresas mineras tomen medidas para mantenerlas en
funcionamiento, siendo algunas de las formas fusionar, vender, bajar costos y
despedir personal y, según expertos, seguirá así por lo menos hasta el 2016,
situación que influye indirectamente en el consumo de bienes y servicios [11].
181
Con estos datos se puede inferir que en la actualidad la situación del macroentorno
no es favorable para el desarrollo de los emprendimientos.
Resultado y análisis de entrevistas
En cuanto al resultado de las entrevistas, se obtiene lo siguiente:
11 emprendedores son mujeres y 9 son hombres. El 42% tiene edades que van
entre 36- 50 años, mientras que el 32% está entre 20 - 35 años, es decir, son
adultos con posibilidades de hacer crecer sus negocios por más de 15 años
(considerando las actuales edades respectivas de jubilación).
Los distintos emprendedores poseen negocios diversos, ofreciendo productos
como celulares, ropa, frutas y verduras, juegos de estrategia, etc.
Cómo surge la idea de negocio
En la figura 1 se muestra una clasificación de cómo nace la idea de los
emprendimientos en los entrevistados. Se percibe que 4 personas crean a partir de
182
la observación de una necesidad insatisfecha en el mercado, 3 personas basan su
idea en su experiencia laboral en el mismo rubro, 2 observan un mercado potencial
y 2 pivotean desde negocios distintos adaptándose a los requerimientos del
mercado. Si se agrupan las ideas de negocios mencionadas se obtiene que el 55%
de los emprendedores generan un negocio a partir de una idea racional.
Evaluación de la idea de negocio
En la figura 2 se indica a grandes rasgos cómo los emprendedores evaluaron su
idea de negocio o bien en qué basaron su decisión de emprender. Se muestra que
5 personas (25%) no realizaron ningún tipo de evaluación, tomaron la decisión de
emprender principalmente guiados por sus emociones. Por otra parte, sólo 3 (15%)
declaran haber realizado un estudio de mercado y el resto basa su decisión en
observaciones o experiencias, pero carecen de estudios profundos que les permita
predecir si su idea es rentable.
183
En la figura 3 se observa que la fuente principal de financiamiento inicial de 15
emprendimientos es el capital propio, ya sea con ahorros generados en trabajos
anteriores, venta de sus activos o con ventas realizadas antes de que el negocio se
constituyera como empresa. Este gráfico muestra una fuente de financiamiento
principal que es aquella que los emprendedores mencionaron como la más
importante, mientras que la fuente secundaria se consideró aquellas menciones que
los emprendedores nombraron vagamente. De las distintas instituciones de apoyo
al emprendimiento sólo se menciona a FOSIS y se encuentran ausentes
SERCOTEC y CORFO. Esto permite deducir que principalmente los
emprendedores asumen la totalidad del riesgo de emprender.
Percepciones sobre su emprendimiento
También se les consulta sobre qué aspectos positivos y negativos perciben de sus
emprendimientos, sin embargo las preguntas son tan variadas como los tipos de
emprendimientos. En aspectos positivos se destaca 4 personas se refieren al
ambiente laboral como algo agradable y relajado, basado en la buena relación con
los clientes y en su propio gusto por el emprendimiento. En los aspectos negativos,
destaca los extensos horarios de trabajos, la delincuencia (cada uno con 2
menciones) y se debe destacar que se menciona la falta de capital para reinvertir (1
184
mención), sin embargo las respuestas son totalmente diversas, no pudiéndose
agrupar en categorías.
En la figura 4 se presenta una interpretación de las principales necesidades de los
entrevistados como emprendedores, donde 7 personas indicaron que su principal
necesidad es obtener capital para invertir en sus negocios y así acelerar el
crecimiento o mejorar aquellas cosas que constantemente deben postergar. Dentro
de estas respuestas, 3 opiniones expresan que acceder al capital para invertir, tanto
de instituciones como de bancos es difícil.
185
Problemas percibidos por los emprendedores en sus empresas
En la figura 5 se muestran algunos de los diferentes problemas que afectan a los
emprendedores. Se observa que las respuestas son diversas y, en algunos casos,
nombran más de un problema, pero vemos que destacan 3 categorías. La primera
categoría indican que su problema es la falta de capital para invertir, con 3
menciones. La segunda categoría muestra que hay 3 emprendedores que declaran
no tener problemas importantes, esto ocurre porque a lo largo de los años han
logrado resolver los problemas más graves. La tercera categoría recoge 3
opiniones sobre los problemas que se tienen con el personal, ya sea por falta de
compromiso, porque no se les puede pagar sueldos competitivos o porque no
poseen la experiencia suficiente para contratar trabajadores con las competencias
necesarias.
186
Actores que influyen en los emprendimientos
En la figura 6, dos grupos de personas o instituciones se presentan como actores
principales que influencian el desempeño de los emprendedores dentro de su
empresa, primero encontramos a los clientes con 4 opiniones coincidentes y los
proveedores con 4 opiniones también. Por otra parte, podemos encontrar actores
secundarios que también influyen en el desempeño de los emprendimientos, pero
que los emprendedores los recuerdan en un segundo lugar o no le otorgan tanta
importancia como a los actores principales, destacando los clientes y la familia con
3 opiniones coincidentes cada uno. Al sumar ambas series, se encuentra que
principalmente los clientes son los más importantes con una mención en 7
respuestas, donde se presentan como una influencia positiva que los motiva a
seguir trabajando; mientras que la familia y los proveedores alcanzan 6 menciones,
siendo la familia un apoyo fundamental para los emprendedores, ya que les ayudan
con las ventas, operaciones o alentándolos a seguir con el emprendimiento. Por su
parte, los proveedores son un actor tanto positivo como negativo, variando de
acuerdo al poder de negociación y la relación que posean con el emprendedor.
187
Percepción sobre variables económicas de los emprendedores
En la figura 7 se indican las variables económicas que afectaron de algún modo los
negocios de los emprendedores. Entre las distintas opiniones se destaca que el
80% afirman que se han visto afectados por los distintos problemas económicos de
la región, sin embargo ellos lo asocian a diversas causas. Entre estas causas
destaca que 6 personas lo atribuyen principalmente al aluvión de marzo del 2015,
debido a que perciben que gente se fue de la ciudad, se cerraron por meses calles
del centro o sufrieron pérdidas materiales. Otras de las causas asociadas son el
alza del dólar, problemas económicos de la región vinculados al cobre, problemas
económicos nacionales y un menor ingreso de los clientes copiapinos.
188
La figura 8 muestra que las opiniones de los emprendedores sobre la Reforma
Tributaria y sus efectos en los distintos emprendimientos son variados y teñida de
un desconocimiento general. Se observa que 7 personas creen que es negativa y
que básicamente beneficia sólo a las grandes empresas, castigando a los más
pequeños por aumento en los impuestos. Por su parte, 5 personas declaran
desconocer en su totalidad la reforma y 5 personas piensan que no los afectará,
principalmente porque son empresas muy pequeñas.
Clasificación de los problemas manifestados en las entrevistas
Lo anteriormente mencionado pude clasificarse según las 4 etapas de un proyecto,
definidas por Sapag: idea (cómo nace la idea de negocio), preinversión (se evalúa la
rentabilidad del proyecto antes de invertir), inversión (se materializan costos y
gastos) y operación (se entregan productos o servicios a los clientes) [12].
189
En la figura 9 se presenta una clasificación de los distintos problemas que afectan a
los emprendedores de acuerdo a las etapas de proyectos definidas por Sapag,
basado en las respuestas de las entrevistas. A nivel de idea, se detecta que sólo el
55% de los entrevistados basa su idea de negocio en una necesidad observada en
el mercado copiapino, el porcentaje restante inicia su negocio arriesgándose a no
poseer clientes. En la etapa de preinversión, sólo el 15% realiza un estudio de
mercado, el 20% no realiza ningún tipo de estudio, mientras que el porcentaje
restante basa su decisión de emprender en observaciones de mercados careciendo
de estudios que avalen la posible rentabilidad del mismo, lo que se traduce en
mayores probabilidades de fracaso. En la fase de inversión destaca que el 75% de
los emprendedores se financia con capital propio (asumiendo totalmente el riesgo
de emprender) y poseen problemas para adquirir financiamiento para hacer
reinversiones. Finalmente, cuando el emprendimiento ya está en operación el
emprendedor tiene problemas para administrar el capital humano y se ve
fuertemente influenciado por clientes, proveedores y variables económicas.
Variable emergente
El concepto que más se repite a lo largo de las entrevistas es el de la falta de capital
para realizar inversiones cuando el negocio ya está en operación, es decir, para
realizar reinversiones. Este problema se presenta como una variable que emerge de
las respuestas entregadas por los entrevistados, ya que en la entrevista se les
consultó sólo por inversiones iniciales para comenzar el emprendimiento. Este
concepto se presenta 1 vez en la categoría de aspectos negativos del
emprendimiento (representando el 5% dentro de esa categoría), 7 veces como una
necesidad (siendo el 35% de las necesidades manifestadas) y 3 veces como un
problema (es el 13% de los problemas manifestados). Es decir, existe un problema
en el acceso que tienen las mipymes al capital destinado a la reinversión, ya sea en
forma de subsidio gubernamental, créditos o fondos. Al analizar en detalle las
respuestas mencionadas, aparece el crédito bancario como fuente de
financiamiento, pero con 3 comentarios de apreciación negativa. Además, al buscar
190
en otras entrevistas, surgen comentarios negativos con respecto al endeudamiento
en dos aspectos, el endeudamiento es de difícil acceso y el endeudamiento es
riesgoso. Esta situación es tratada por el Consejo de Financiamiento de pymes y
Emprendimiento donde concluyen que los créditos bancarios para mipymes poseen
tasas de interés mayores, así como mayores restricciones para su obtención,
produciendo que sólo un 20% de microempresas y 30% de pequeñas empresas
puedan acceder a créditos [13], coincidiendo totalmente con la opinión de los
emprendedores.
Por otra parte, los fondos concursables de instituciones públicas para obtener
financiamiento tampoco se presentan cómo una opción de fácil acceso para hacer
reinversiones. A lo largo de las entrevistas, los emprendedores explican que pese a
postular no se obtuvo los fondos y piensan que ciertas áreas de negocios son
privilegiadas para entregarles fondos, viéndose perjudicados ante esta situación.
Esto se puede relacionar con que gran cantidad de fuentes de financiamiento están
orientadas a emprendimientos innovadores o con altas posibilidades de escalar en
el mercado nacional e internacional. Esto significa que hoy existen más
posibilidades para aquellos emprendimientos riesgosos y que requieren grandes
niveles de inversión que para aquellos que son tradicionales [14].
CONCLUSIONES
En este estudio, finalmente se logra probar que hay problemas que afectan desde
sus inicios a emprendedores del centro de Copiapó. Los principales hallazgos se
clasifican de acuerdo a las etapas de un proyecto, en donde se detecta una
debilidad en los emprendedores al momento de generar la idea, ya que sólo el 55%
generó su idea a partir de una necesidad presente en el mercado. Por otra parte, a
la hora de evaluar la factibilidad de la idea, se presenta otra deficiencia, ya que sólo
3 emprendedores dicen haber realizado un estudio de mercado, un 60% toma la
decisión de materializar la idea debido a su experiencia en el rubro o porque
observa un mercado, dejando de lado el análisis de variables que podrían ser fuente
191
de problemas. Estas dos variables significan una mayor incertidumbre y riesgo para
el emprendedor, ya que no sólo pone en juego el éxito de su emprendimiento,
también arriesga su bienestar familiar. Como principales problemas de la etapa de
operación son mencionados la falta de capital para reinversión y problemas con el
personal. Los problemas en el área de RRHH es un tema complejo, debido a la
desigualdad de condiciones salariales, estructurales y formativas en las que se ve
enfrentada una mipyme con respecto a una gran empresa, significando a los
emprendedores que lograr encontrar trabajadores comprometidos que acepten
trabajar por el sueldo mínimo es un desafío que deben enfrentar día a día y que, al
no ser resuelta, conlleva a una alta rotación de personal e ineficiencia debido a los
costos de tiempo y monetarios que significa la falta de experiencia. La falta de
capital para la inversión viene acompañada de una percepción negativa del sistema
crediticio, ya que se observa que es de difícil acceso para pequeños
emprendedores debido a los requisitos exigidos y que es peligroso el
endeudamiento a causa de las altas tasas de intereses. Los fondos concursables de
instituciones públicas no ofrecen un mejor panorama, ya que tampoco se perciben
como de fácil obtención, existiendo pocos programas destinados a financiar
emprendimientos ya establecidos, debido a que se concentran en financiar
principalmente a empresas innovadoras, de rápido crecimiento y escalabilidad,
dejando fuera a aquellos emprendimientos tradicionales. Esta situación hace
emerger la siguiente variable: el principal problema es obtener capital para realizar
reinversiones y acelerar el crecimiento del negocio. Esto se traduce en que para
lograr el crecimiento de las empresas, los emprendedores dependen
exclusivamente de los ahorros que puedan generar dentro de los negocios,
significando que el proceso es largo y lento, involucrando mayor cantidad de horas
de trabajo al no poder contratar más mano de obra, generando jornadas laborales
extenuantes. Este problema, aunque surge ya en la etapa de operación de la
empresa, es considerado en la etapa de inversión, ya que esta etapa incluye el
concepto de reinversiones.
Los emprendedores destacaron 3 grupos de personas o instituciones que son
influyentes en el desempeño de sus empresas: los clientes, los proveedores y la
192
familia. Los clientes son el grupo más importante y los emprendedores los
reconocen como algo positivo, les ayuda a surgir, es decir, entienden la importancia
de los clientes para el desarrollo de sus negocios. La familia es una influencia
positiva, ya que ofrecen apoyo de todo tipo a los emprendedores, ya sea
compartiendo las responsabilidades en los hogares, ayudando en la manufactura o
bien atendiendo los locales cuando es necesario. Lo proveedores influyen positiva y
negativamente de acuerdo al poder de negociación de cada emprendedor. Cuando
existe una relación positiva con los proveedores, los emprendedores obtienen
garantías, productos de calidad y cumplimiento en los plazos de entrega, lo que se
traduce en que puedan entregar un servicio de calidad. Cuando las relaciones con
los proveedores no son positivas o buenas, los emprendedores se ven afectados
por incumplimiento de plazos, problemas de stock, aumento de costos, descontento
de los clientes o pérdidas de ventas.
En cuanto al macroentorno, se debe destacar que las opiniones de los
emprendedores sobre la economía regional, coincide con la evaluación no favorable
del entorno obtenida mediante el análisis PEST. Muchos de estos emprendedores
se vieron afectados por el aluvión perdiendo insumos e infraestructura, además de
una baja en las ventas debido a la situación económica de la región o por cierres
temporales de los locales comerciales. Además, existe una percepción negativa
sobre la reforma tributaria, desconociendo los beneficios ofrecidos a las mipymes, y
sin certeza sobre los efectos en las reformas en sus empresas.
Las actuales instituciones destinadas a fomentar los emprendimientos, no logran
posicionarse como fuentes de apoyo abiertas a toda la comunidad, es por esto que
es necesario el surgimiento de más entidades que se dediquen a ayudar a aquellos
emprendedores que no poseen los medios suficientes para pagar por asesorías y
que no ha sido seleccionados por los programas ya existentes.
Este estudio presenta ciertas limitaciones, la primera es que los resultados aquí
expuestos no reflejan la realidad total de los emprendedores copiapinos, sólo se
centra en quienes trabajan en el centro de Copiapó, ya que las distintas áreas
geográficas presentan microentornos diferentes, cada sector tiene condiciones de
193
acceso a los clientes diferentes, así como productos distintos y otras situaciones de
competencia. Es por esto, que se elige trabajar con emprendedores del centro de
Copiapó, para así tener mayores posibilidades de recopilar información. Se debe
agregar que no se realizaron preguntas específicas sobre las distintas áreas de las
empresas, por ejemplo, no se consultó sobre si construían índices financieros, si se
apoyaban en tecnologías de información, si poseían planes estratégicos, etc. El
estudio busca que los problemas emerjan como respuesta de los emprendedores y
así definirlos dentro de algún área empresarial.
Debido al impacto que tienen en Copiapó las mipymes en la generación de ingresos
y empleo, es indispensable seguir monitoreando la situación en la que ellos se
encuentran, para así generar políticas públicas que se adapten a la realidad de la
ciudad y que apunten a mejorar su competitividad y sustentabilidad, lo que
produciría una mayor estabilidad y flexibilidad económica.
AGRADECIMIENTOS
Agradezco a Constanza Olivares por su apoyo en la realización de este trabajo y a
cada uno de los emprendedores que me abrieron las puertas de su empresa y de
su corazón, les deseo mucho éxito a cada uno.
194
REFERENCIAS
[1] Corporación para la competitividad e innovación de la región de Atacama [CCIRA]. “Global
Entrepreneurship Monitor, Informe de la región de Atacama, Chile 2013”. Copiapó : s.n., 2014.
[2] Servicio de Impuestos Internos [SII]. Estadísticas de empresas por región. www.sii.cl. [En
línea] Octubre de 2015. [Citado el: 15 de Marzo de 2016.]
http://www.sii.cl/estadisticas/empresas_region.htm.
[3] F. Matiz. “Investigación en emprendimiento, un reto para la construcción de conocimiento”.
EAN N°66, págs. 169-182. Mayo-Agosto 2009.
[4] W. Gartner. “"Who is an entrepreneur?" Is the wrong question”. Entrepreneurship Theory and
Practice, pág. 47-68. Verano 1989.
[5] C. Orrego. “Fenomenología y el emprendimiento”., Pensamiento y gestión N°27, págs. 235-
252. Agosto 2009. ISSN: 1657-6276.
[6] R. Hernández, C. Fernández-Collado, y P. Baptista. “Metodología de la investigación”. Mc
Graw Hill Interamericana. Cuarta edición. México, México D.F 2006. ISBN: 9701057538.
[7] M. Hitt, J.S. Black, y L. Porter. “Administración”. Pearson Educación, México 2006. ISBN:
9702607604.
[8] Vargas y P. Corvalán. Modificaciones al Código Tributario Introducidas por la Ley N°20.780.
www.sii.cl. [En línea] 04 de Noviembre de 2014. [Citado el: 01 de Octubre de 2015.]
http://www.sii.cl/portales/reforma_tributaria/6rtmodificacionley20780alc_tributario.pdf.
[9] Servicio de Impuestos Internos. Reforma Tributaria, Principales reformas al impuesto a la
renta e IVA. www.sii.cl. [En línea] 2014. [Citado el: 02 de Octubre de 2015.]
http://www.sii.cl/portales/reforma_tributaria/volante_rt_final.pdf.
[10] C. Martínez. “Indicador de Actividad Económica Regional, Región de Atacama”. Boletín
informativo del Instituto nacional de estadísticas. Copiapó. s.n, 2015.
[11] mch.cl. Las fórmulas de las empresas mineras para capear el declive de precios de los
metales. www.Nostalgica.cl. [En línea] 21 de Septiembre de 2015. [Citado el: 26 de
Septiembre de 2015.] http://www.nostalgica.cl/las-formulas-de-las-empresas-mineras-para-
capear-el-declive-de-precios-de-los-metales/.
[12] N. Sapag. “Proyectos de Inversión, formulación y evaluación”. Pearson Educación. Segunda
edición. Santiago, Chile. 2011. ISBN: 9789563431070.
[13] Consejo de Financiamiento de Pymes y Emprendimiento. Estrategia para financiamiento de
las pymes y el emprendimiento. www.Economía.gob.cl. [En línea] 07 de Julio de 2015. [Citado
el: 27 de Marzo de 2016.] http://www.economia.gob.cl/wp-content/uploads/2015/09/Informe-
Final-Estrategia-para-Financiamiento-de-las-Pymes-y-el-Emprendimiento.pdf.
[14] M. Duhalde. Desde el Capital Semilla hasta el Venture Capital: la ruta del financiamiento en
Chile. www.ElMercurio.cl. [En línea] 21 de Marzo de 2016. [Citado el: 26 de Marzo de 2016.]
http://impresa.elmercurio.com/Pages/NewsDetail.aspx?dt=2016-03-21&PaginaId=8&BodyId=2.
195
OLVÍDESE DEL CICLO DE VIDA DEL PRODUCTO Y FOCALÍCESE
EN EL CICLO DE VIDA DEL CLIENTE
Pedro Hidalgo. Magister de Science in Business, University of Kansas
Ingeniero Comercial, Universidad de Chile
Contador Auditor, Universidad de Chile
Director Global MBA
Departamento de Administración y Negocios
Facultad de Economía y Negocios
Universidad de Chile
La valoración de una empresa puede seguir el método de estimar sus flujos
futuros descontados a valor presente. Y, ¿qué son los flujos futuros? Son las
compras realizadas por los clientes. Por tanto los ingresos, las utilidades y la
sobrevivencia de una empresa en el tiempo están directamente correlacionada a
la existencia de clientes.
Desde 1960, los conceptos de marketing reflejan más una orientación a los
consumidores, cambiando su énfasis desde transacciones de corto plazo a
relaciones de largo plazo con los clientes. Hoy, está claro que los conceptos de
marketing deben ser concebidos y, por ende, sus estrategias, como inversiones
orientados a potenciar positivamente las percepciones y posicionamiento de las
marcas con el fin de aumentar las adquisiciones y retención de clientes, así como
el monto de las compras totales (add-on selling). Por esta razón, decisiones
acerca precisamente de cuánto invertir en cada esfuerzo de marketing son
sumamente importantes (ver cuadro 1).
Los efectos o resultados de esta inversión y estrategias centradas en el cliente,
generan un aumento en el Valor del Cliente (Customer Lifetime Value – CLV), lo
cual aumenta los ingresos futuros y, por ende, el valor de la empresa.
Con el fin de lograr los objetivos de utilidad y sobrevivencia de una empresa, es
necesario que sus estrategias se orienten a la captación de clientes y, a través de
la satisfacción de éstos y logro de experiencias positivas, obtener su retención y, a
196
su vez, lograr conocer las necesidades y deseos de esos clientes con el fin de
adicionar ventas a través de la satisfacción de otras necesidades y deseos en
esos clientes. De esta forma, pasaremos de un enfoque de evaluación de
resultados a través del Market Share al Wallet Share, logrando una mayor
participación en el nivel de compras totales de la base de clientes. Por tanto, una
empresa, a través de la satisfacción, logra clientes más permanentes y más
rentables.
Consecuentemente, en marketing es necesario desarrollar modelos que se
focalicen en maximizar, más que en sólo medir el CLV. Muchos estudios enfatizan
en los beneficios de retención de clientes. Cada vez más, tanto la teoría como la
práctica en marketing reconocen la necesidad de desarrollar clientes leales. Los
clientes leales compran más, son más rentables, están dispuestos a patrocinar las
innovaciones de la empresa, recomiendan, son menos sensibles al precio y a las
estrategias de la competencia y cuesta menos atenderlos. Se indica, en estudios,
que una mejora de un 1% en retención de clientes aumenta el valor de una
empresa en 5%.
CLV es el valor presente de todos los futuros ingresos que una empresa podría
generar de cada uno de sus clientes. Este análisis es similar al de los flujos
descontados a valor futuro, pero con una diferencia importante: CLV incorpora el
índice de retención, lo que demuestra lo rentable de invertir en la satisfacción de
los clientes y, a través de ésta, en la generación de lealtad.
El CLV es una herramienta muy poderosa que no sólo provee la habilidad para
evaluar esfuerzos de marketing, sino que provee guías para evaluar decisiones
estratégicas respecto a crecimiento, como son la penetración de mercado y el
desarrollo de mercado, y para evaluar decisiones relativas a fusiones y
adquisiciones, entre otras definiciones.
Grupta y Lehmann (2003) define CLV como el resultado del margen anual por
cliente (m) multiplicado por la probabilidad del cliente de permanecer con la
197
empresa (índice de retención anual del cliente r) por cada año (t) descontado a
una tasa de interés anual (i)
Con el fin de adquirir clientes, primera actividad de todo negocio, es necesario
identificar los distintos segmentos y sus requerimientos en una determinada
categoría. Con esta información, las empresas podrán elegir un determinado
segmento o segmentos a los cuales puedan servir con una determinada oferta
capaz de satisfacer dichos requerimientos. En la medida que esa oferta de valor
satisface los requerimientos del mercado objetivo y la experiencia de compra y
consumo es satisfactoria, ese cliente no sólo estará dispuesto a seguir
comprando, sino que también a recomendar la marca a otros. El lograr la lealtad
de los clientes es la segunda actividad de toda empresa y la que garantiza la
rentabilidad de ésta y su valor como compañía.
Es por lo anterior que toda empresa debiera administrar una Base de Datos de sus
clientes que le permita determinar la conducta de compra de esos clientes. A
través de una inteligencia de negocios adecuada, las empresas serán capaces de
identificar aquellos clientes con los cuales sus relaciones de intercambio son más
redituables y, por tanto, aquellos a los cuales se les debiera asignar más recursos.
No todos los clientes contribuyen de igual manera a las utilidades de la empresa,
lo que significa que, de igual manera, no todos los clientes merecen la misma
atención ni la asignación de los mismos recursos.
Con este fin, la empresa debe utilizar cada vez más métricas. Por ejemplo, a
través de la base de datos se puede identificar a los clientes RFM, que son los
clientes que han comprado
198
Recientemente, Frecuentemente y han invertido más dinero (Money) y, por tanto,
son los clientes más redituables.
Estos clientes, además, pueden ser evaluados a través de otras métricas, como
son la medición de la intención de compra y la medición de su satisfacción, a
través de medir si estarían dispuestos a recomendar a otros potenciales clientes
determinadas marcas. De esta última métrica se puede obtener el Net Promoter
Score (NPS), que representa a aquellos clientes satisfechos, promotores, menos
los clientes no satisfechos o detractores. Estas evaluaciones se pueden hacer por
segmentos, mercados, localidades, vendedores, entre otros, permitiendo
identificar benchmarking con el fin de identificar e implementar mejores prácticas
en forma transversal al interior de la empresa.
A través de estas mejores prácticas se pueden lograr clientes con buenas
experiencias de compra y, por tanto, clientes leales. En general, hay una alta
correlación entre aquellos clientes que se pueden identificar como RFM y aquellos
que están más satisfechos y dispuestos a volver a comprar y a recomendar la
marca a otros. Estos clientes, por su alto nivel de satisfacción y experiencia con la
marca y con la empresa, están más dispuestos a patrocinar innovaciones, como
ya dijimos, y a comprar nuevas ofertas ofrecidas por la empresa, permitiendo que
199
ésta entre en otros negocios desarrollando una estrategia de diversificación
horizontal, es decir, desarrollando distintos negocios orientados a satisfacer las
distintas necesidades de los clientes, obteniendo con ello una mayor participación
en sus compras (wallet share). Todo este esfuerzo contribuye a lograr mejores
relaciones con los clientes, relaciones más redituables y mayor valor para la
empresa.
*Este artículo se ha basado en las clases y paper “Customer Retention and Price Matching: the
AFP case” Pedro Hidalgo,et al, JBR, 200
200
CUSTOMER EQUITY: EL VALOR ESTÁ EN EL CLIENTE
Pedro Hidalgo Campos: Director Global MBA
Departamento de Administración y Negocios
Facultad de Economía y Negocios
Universidad de Chile
Los gerentes administran negocios, entendiendo éstos como una relación
mercado/satisfactor dentro de un determinado macro ambiente. Las estrategias
deben estar orientadas a lograr el crecimiento del valor de sus clientes y a la
rentabilidad. Es decir, la empresa debe invertir en aquellas estrategias que
generen más retorno, siendo las más importantes las destinadas a adquirir
clientes, retener clientes/leales y adquirir una mayor participación en las compras
de esos clientes (wallet share).
El macro ambiente es el ecosistema donde se desarrolla el negocio. Los
principales componentes de este ecosistema son el cliente, la compañía y los
competidores, así como los integrantes del canal tanto de proveedores como de
distribución, y el contexto ambiental: regulación, economía, tecnología, ecología,
públicos presentes (comunidad, sociedad), entre otros. Todos estos actores, que
tienen autonomía y actuar propio, interactúan con la empresa y su estrategia,
siendo, por tanto, fuentes de oportunidades y amenazas. Una empresa será más
exitosa que otra en la medida que las interrelaciones que cree y desarrolle con
todos estos actores contribuyan a generar una mayor rentabilidad.
Una empresa vale más en la medida que sus flujos futuros descontados a valor
presente sean positivos y sobre un determinado nivel. Estos flujos futuros
provienen de las compras que hacen los clientes de una empresa, por lo tanto el
valor de cada cliente depende de cuánto tiempo se mantenga comprando, cuánto
compre y con qué frecuencia, lo que se traducirá en el margen que ellos dejan,
menos los costos de adquirirlos, de atenderlos y de retenerlos. Por tanto, la
rentabilidad de una empresa no depende de la rentabilidad que originan sus
productos, mix que debe ir evolucionando de acuerdo a los requerimientos de su
mercado, sino que de la rentabilidad que originan sus clientes leales a través del
201
tiempo. El lograr alcanzar a estos clientes con una oferta de valor no sólo depende
de la capacidad de la empresa de identificar necesidades y deseos que es capaz
de servir, sino que de generar una oferta con los actores de su ecosistema, capaz
de generar ventajas competitivas con respecto a su competencia.
El modelo RFM (Recency, Frecuency and Money) permite identificar aquellos
clientes que son más valiosos para la empresa, siendo éstos los que han
comprado más recientemente, compran más frecuentemente y compran una
mayor cantidad de dinero y con un mayor margen (cuadro Nº1). Los que cumplen
bien las tres categorías constituyen el “core” de los clientes, aquellos que son más
rentables, a los que la empresa debe asignar más y mejores recursos, por
definición escasos, con el fin de lograr altos niveles de satisfacción y lealtad en
ese segmento.
La lealtad no sólo requiere compras repetitivas sino que una actitud-evaluación
positiva. La regla de oro es la medición del nivel de satisfacción de la base de
clientes de una empresa. La mejor manera hoy es medir la satisfacción no sólo
202
como un índice de satisfacción de clientes (ISC), sino como un índice de
recomendación. Esto da origen al índice de promotores que tiene una empresa y
al “Net Promoters Score” (NPS), que es el porcentaje de clientes de una empresa
que están dispuestos a recomendarlos, menos aquellos que serían sus
detractores por estar insatisfechos (Cuadro Nº 2). El NPS se obtiene de la
medición en una escala Likert de 10 puntos a la pregunta “¿Nos recomendaría
usted a un amigo?”; aquellos que responden 9 o 10 (muy de acuerdo) se
consideran como promotores y aquellos que están entre 1 y 6 (muy en desacuerdo
y desacuerdo) se consideran detractores. El NPS es el porcentaje de promotores
menos el porcentaje de detractores.
Si nosotros cruzamos la información entre promotores y el segmento “core” de
RFM debiéramos encontrar una alta correlación y seguramente, si los perfilamos,
ambos grupos tengan el mismo perfil y constituyan el mismo segmento. Para esto
es necesario que la empresa administre información de sus clientes en una
adecuada y oportuna base de datos.
CUADRO 2
203
Todo negocio, en una primera etapa, debe invertir en adquirir clientes. Para esto,
es fundamental desarrollar “awareness” de la existencia de nuestra oferta y de su
concepto. Cuando conseguimos esto, hemos logrado un posicionamiento de
nuestra oferta en la mente del consumidor (empresa o consumidor final) y,
consecuentemente, creado expectativas que ellos o ellas esperan ver satisfechas
al momento de la compra y uso del satisfactor (producto/servicio/idea). Para lograr
la adquisición, es necesario que las empresas desarrollen estrategias que
conlleven la prueba y/o compra del satisfactor. El testeo de éste. En este proceso,
el cliente debe ser capaz de cumplir sus expectativas, las cuales nosotros como
empresa le hemos creado en el proceso de awareness-posicionamiento. En el
momento que el cliente cumple sus expectativas, éste se sentirá satisfecho y se
inicia la segunda estrategia, encaminada a lograr la lealtad y retención de estos
clientes. Un cliente satisfecho se convertirá en un promotor. Las empresas,
cuando tienen un conjunto de clientes leales, deben diseñar estrategias orientadas
a crecer en ellos y con ellos. Deben ser capaces de identificar nuevas
necesidades que la empresa podría satisfacer, incorporando nuevos negocios,
incluso en otras esferas, pero orientadas a que más compras de ese cliente
satisfecho se realicen con nuestra empresa a través de adicionar nuevas ofertas,
las cuales también logren satisfacción de ese cliente y por tanto acrecienten su
lealtad (cuadro Nº3). Un buen ejemplo son los “retail” de ropas, que han agregado
venta de seguros y viajes.
CUADRO 3
204
Por tanto, una empresa exitosa y rentable es aquella que tiene un foco en los
clientes, es decir, que desarrolla estrategias orientadas a ofrecer algo de valor,
que evalúa el ISC y el NPS segmentado entre sus clientes y que incorpora otras
métricas del desempeño de los esfuerzos de marketing implementados.
Finalmente, es necesario señalar que está comprobado que los promotores son
más rentables, tanto en el grado de lealtad, como en el nivel de “wallet share”,
como en los referidos o nuevos clientes que se logran a través de ellos. Esto
conlleva el desarrollo de estrategias y esfuerzos de marketing orientados a
obtener altos índices de NPS, los cuales debieran traducirse en alta rentabilidad.
Los objetivos de la empresa deben focalizarse, por tanto, en lograr “wallet share y
no “market share”.
205
TECNOLOGÍAS DE INFORMACIÓN Y COMUNICACIONES (TICS) E
INNOVACIÓN
David Díaz
Ph.D. in Business Intelligence, University of Manchester Business School
Manchester, Inglaterra
Magíster en Finanzas, e Ingeniero Comercial, Universidad de Chile.
Especializado en Business Intelligence, Service Analytics, Finanzas, Minería de Datos,
Innovación, Sistemas de Información Gerencial, Inteligencia artificial aplicada a la
valoración de activos y temas financieros.
Coordinador del área inteligencia de negocios
Facultad de Economía y Negocios, Universidad de Chile.
Miembro del comité académico congreso BALAS 2017
Introducción
En la actualidad nos vemos insertos en un mundo altamente cambiante y
competitivo el cual es cada vez más dependiente de las Tecnologías de la
Información y las Comunicaciones (TICs) para sus procesos comerciales, sociales
y políticos. La penetración universal de las mismas se debe fuertemente a la caída
sostenida de sus costos, lo que ha repercutido en un aumento en la capacidad de
generación, almacenamiento y procesamiento de grandes cantidades de datos a
niveles que antes parecían imposibles. En particular, las TICs han ayudado a
democratizar el acceso a la información permitiendo que las empresas optimicen
sus procesos, conozcan mejor a sus clientes y mantengan mejores y más
estrechas relaciones con sus proveedores y socios estratégicos. Además han
facilitado el trabajo a distancia y en equipo, abaratando costos y contribuyendo a
crear e innovar colectivamente nuevos productos y servicios de manera ágil y
sencilla. Las TICs han facilitado la interconexión e integración de mercados,
creando nuevos canales de distribución y transformando profundamente la
economía y la sociedad en general y, por ende, la manera en que los intercambios
de bienes y servicios son realizados.
Para que los sistemas de Inteligencia de Negocios se transformen en generadoras
de valor, tanto para empresas, organizaciones, clientes y consumidores, es
206
necesario que exista un delicado equilibrio humano, tecnológico y organizacional
el cual no es fácil de alcanzar. En este sentido, los sistemas de Inteligencia de
Negocios son una parte importante, pero no completa del equilibrio requerido para
la generación de valor, existiendo numerosos casos de organizaciones que han
fallado a la hora de implementar un proyecto no por problemas en la tecnología,
sino por una falta de sincronización y convergencia con los factores humanos y
administrativos, existiendo dificultades al administrar el cambio organizacional, por
ejemplo; por falta de motivación o entrenamiento adecuado del personal; por una
implementación prematura de proyectos o por un desalineamiento de incentivos u
otros inconvenientes.
Sin un equilibrio adecuado, su implementación puede ser un problema más que
una solución, ya que son estas mismas las que facultan o incapacitan a las
organizaciones a adaptarse, reaccionar, o anticiparse rápidamente a las dinámicas
de mercado. Algunas cifras indican que todavía un porcentaje significativo de
proyectos de TICs fallan, se exceden en costos, tiempo o requieren intervención
para terminar. De estos un 18% falla rotundamente y un 49% solo termina si es
intervenido (Th e Standish Group International, 2013). Adicionalmente, se estima
que un 42% de los trabajadores laboran con información incompleta, y de hecho
tres de cada cinco empresas no comparten información con sus proveedores o
socios. En las empresas de retail se estima que cerca de US$40 mil millones
anuales son perdidos debido a ineficiencias en su cadena de abastecimiento (IBM
& Computing.co.uk, 2012).
En particular, este capítulo muestra cómo las TICs pueden permitir a las
organizaciones innovar en la reformulación de sus estrategias y modelos de
negocios, entregando mayor valor a sus clientes por medio de nuevos productos y
servicios. Los desafíos que presentan estas nuevas tendencias serán discutidos
en el contexto de la “analítica de servicios” y de la realidad de Latinoamérica
entregando algunos lineamientos que son relevantes para todo tipo de empresas.
207
Principales tendencias TICs
Filosofía de Inteligencia de Negocios y Tecnologías que la habilitan
Estamos en medio de un cambio en la manera en que las organizaciones toman
decisiones y realizan sus planes estratégicos, siendo cada vez más fuerte una
filosofía de administración en base al análisis de datos la que fue inicialmente
denominada Business Intelligence (Inteligencia de Negocios) y progresivamente
Data Science o también Data Analytics. Esta hace referencia al conjunto de
estrategias y herramientas enfocadas a la administración y creación de
conocimiento mediante el análisis de datos existentes en una organización o
empresa, comparándose con una administración basada en la intuición de sus
gerentes o administradores. La principal diferencia entre ambas, es que la primera
se orienta a lograr a que la organización completa se estructure de manera tal que
las decisiones sean consistentes y tomadas siempre con base en el análisis de
datos y hechos objetivos y siguiendo el método científico.
En contraste, la segunda confía la administración y toma de decisiones a un grupo
reducido de “mentes brillantes” dentro de la organización. Esto puede carecer de
consistencia y limita el uso y asimilación de información crítica a un grupo
específico, y reduce las posibilidades de aprender de errores pasados, ya que la
manera en que las decisiones fueron tomadas permanece capturada y pertenece
a ese grupo en particular, en vez de ser de dominio y acceso universal dentro de
la organización.
La filosofía de Business Intelligence o Data Analytics nace de la nueva realidad
que viven las empresas, las que se ven inundadas de datos operacionales los
cuales carecen de sentido y valor si no son procesados y analizados
apropiadamente. Tecnologías como los sensores de bajo costo y la conectividad
inalámbrica han hecho además que dichos datos sean generados, trasmitidos y
capturados casi en tiempo real, siendo recolectados en abundancia por las
empresas. Asimismo, el software inteligente, y las tecnologías de Sistemas de
Bases de Datos Multidimensionales, Procesamiento Analítico (OLAP), Data Mining
208
y Big Data, entre otros, hacen que sea posible el extraer información valiosa de
dichos datos a costos accesibles, lo que es realizado gracias a la ayuda de la
computación en Grid y la Nube. Finalmente, avances en los dispositivos móviles y
en la visualización de información hacen que la información extraída sea
presentada atractiva, interactiva, y didácticamente, facilitando la toma de
decisiones y acelerando el ciclo de retroalimentación de información, apoyando de
esta manera a la mejor gestión, y la innovación.
Rol de las Redes Sociales Digitales
La penetración de las TICs no tan solo ha tenido repercusión en las
organizaciones, sino que también ha cambiado la manera en que las personas se
comunican e interactúan entre sí, impactando la manera en que los consumidores
acceden a productos y servicios. Por ejemplo, algunas redes sociales y
plataformas digitales, como Facebook o Apple Store, se han transformado en lugar
de intercambio de productos y servicios en sí mismos, creando nuevos mercados
y canales de distribución los que han alcanzado una mayor importancia y
participación con el potencial de sobrepasar incluso a otros canales digitales
alternativos tales como los mercados de subastas por internet o sitios de E-
comerce como Amazon.
Del mismo modo, el acceso a redes sociales digitales ha hecho que los
consumidores influyan y den forma a la manera en que las compañías proveen
sus servicios, y al mismo tiempo, que puedan recurrir a su círculo social en busca
de información y ayuda a la hora de elegir o descartar una decisión de compra
casi en tiempo real. Es así como han permitido que los consumidores estén más
informados, comunicados y exigentes, ejerciendo presión sobre los costos y
demandando servicios cada vez más personalizados a menores precios, tanto de
manera individual como organizada en grupos de interés o de afiliación.
Actualmente, es extremadamente sencillo para los consumidores el compartir con
el entorno una mala o buena experiencia con una marca, producto o servicio,
209
influyendo en su círculo cercano o incluso generando campañas virales con
alcance mundial que pueden causar la quiebra o el éxito rotundo de las
organizaciones mencionadas. El acceso a redes sociales digitales ha hecho que
ahora estén disponibles grandes cantidades de información respecto de las
preferencias, gustos, costumbres y características de los clientes, siendo una
tarea titánica el extraer, organizar y analizar dicha información considerando la
velocidad con que esta es creada y actualizada, tareas en las cuales las TICs
juegan un rol clave.
Dichas tareas se vuelven aún más complejas cuando se considera que la
información extraída de las redes sociales es inútil si esta información no es
integrada con la información interna de la compañía, o si la administración no toma
decisiones y actúa en base a ella, siendo las TICs críticas en la implementación
exitosa de dicha integración y en la presentación oportuna y adecuada de la
información para una toma de decisiones efectiva.
Trabajo a Distancia y Trabajo en Equipo.
Las TICs están transformando el lugar de trabajo al permitir y facilitar la
colaboración y el trabajo a distancia. Tecnologías como la Nube facultan a los
equipos a reunirse en la red para trabajar simultánea o asincrónicamente sobre
una versión única de un documento, proyecto o archivo, a cualquier hora, desde
cualquier lugar y a través de una gran variedad de dispositivos móviles. El acceso
a través de la Nube no tan solo facilita la coordinación que favorece la innovación
y la creación rápida de nuevos productos, sino que también mejora los niveles de
seguridad, la facilidad con que la información es compartida en la empresa, y la
creación de grupos de trabajo internacionales o ad hoc que antes tendrían que
reunirse físicamente o que simplemente no podrían hacerlo.
Es así como algunas empresas están abandonando definitivamente el uso del e-
mail en favor del uso de redes sociales digitales internas, o el uso de tecnologías
de teleconferencia a través de internet. Al mismo tiempo, algunas organizaciones
210
han adaptado sus procesos de trabajo permitiendo a los trabajadores que ocupen
sus propios dispositivos móviles (Bring Your Own Device) para realizar las tareas
además de reducir el espacio físico necesario para oficinas, invirtiendo en mejor
conectividad inalámbrica, ancho de banda o creando salas especiales para la
realización de reuniones con telepresencia.
Otras plataformas y comunidades virtuales están facilitando el denominado
Crowdsourcing, el que permite el externalizar ciertas funciones a equipos de
trabajadores que se encuentran a distancia, y que son contratados única y
exclusivamente para la tarea, permitiendo gran flexibilidad y escalabilidad de la
fuerza de trabajo y de los costos asociados a ella. Similarmente, plataformas de
Crowdfunding permiten el acceso a financiamiento para proyectos a través de la
Nube, contactando inversionistas diversos que de otra manera serían
extremadamente difíciles de relacionar e involucrar.
Economía de los Servicios, Sistemas de Servicio y Lógica Dominante de los
Servicios
Varias son las tendencias que hoy estudian las nuevas configuraciones de
mercado, siendo quizás la más significativa la visión de que vivimos en un mundo
de servicios y ya no más en uno de productos. Hasta no hace muchos años las
Ciencias de la Administración se focalizaban en lo que hoy se conoce como una
lógica orientada a productos, enfoque que está gradualmente siendo reemplazado
por una Service-Dominant Logic o Lógica Dominante de Servicios (Maglio &
Spohrer, 2008; Vargo & Lusch, 2004, 2008)
Tradicionalmente, el énfasis era puesto en la creación y comercialización de
productos, esquema en que la empresa o productor era analizada como el centro
transformador y creador de valor. Ahora, sin embargo, es el cliente el centro de la
cadena productiva, y por tanto, es él, el que tiene la habilidad de personalizar y
configurar la manera en que prefiere que su requerimiento sea satisfecho,
optimizando y configurando en forma dinámica la cadena de valor que más se
acomode a sus necesidades. En una Customer-Driven Service Value Network
211
(Kwan, Yuan, Demirkan, Spohrer, & Krishna, 2011) o Red de Servicio y Valor
Conducida por el Cliente, las empresas se transforman en proveedores
universales de servicios, las cuales facilitan sus recursos para que junto al cliente
cocreen valor y configuren la solución adecuada. En este enfoque los productos
son representaciones físicas de un servicio provisto por la empresa el cual genera
valor al cliente al momento de ser consumido o utilizado.
Similarmente, los servicios provistos por las empresas generan valor cuando estos
son recibidos y utilizados, aportando el cliente valor cuando ayuda a configurar el
servicio que desea (coproducción) y trayendo al momento de la entrega del
servicio todo su conocimiento, experiencia previa y predisposición a un buen
servicio (cocreación). Dichos intercambios se realizan en un Sistema de Servicio
en un contexto altamente dinámico, en el cual, es el cliente el que define y
reorganiza la cadena de valor de acuerdo a la información que va obteniendo en
tiempo real a través de su acceso a internet, por ejemplo a través de una red
social digital, lo que le permite personalizarlo gracias al conocimiento que posee
tanto del servicio como del sistema en el que es entregado.
Servicios habilitados por la TICs o IT-Enabled Services
Esta nueva configuración de la economía de los servicios sería imposible sin el
apoyo logístico; niveles de coordinación y flujos de información necesarios,
aspectos en que las TICs juegan un rol preponderante. En particular, una
tendencia relevante hace relación a los llamados IT-Enabled Services o Servicios
Habilitados por las TICs, los que deben ser entendidos más allá del ámbito de las
tecnologías y el software, ya que se refieren a la gama completa de servicios
existentes en la economía los cuales son o serán posible gracias a las labores que
son atendidas, realizadas, o apoyadas por las TICs.
Actualmente, dichas tecnologías son generalizadas y se encuentran tanto interna
como externamente, y a través de toda la cadena de valor. Algunos ejemplos
incluyen tecnologías que ayudan a las empresas a organizar su cadena productiva
212
y de distribución, por ejemplo utilizando sistemas de Supply Chain Management
(SCM), en los Sistemas de Administración de la Relación con Clientes o Customer
Relationship Management Systems (CRM), en los Sistemas de Administración y
Monitoreo de Campañas de Marketing o Enterprise Marketing Management
Systems (EMM), y también, desde el punto de vista del consumidor y usuario, en
los sistemas que le permiten el acceso a información relevante a la hora de la
compra, uso, o soporte y atención de productos y servicios, como las Redes
Digitales Sociales, las Tecnologías Móviles, los Sistemas de Computación en la
Nube o Cloud Computing, entre otros. El conjunto de tareas, tecnologías y los
sistemas de información desarrollados con el objetivo de soportar la toma de
decisiones de manera integral es reconocido como Filosofía de Inteligencia de
Negocios, y como tal, es piedra fundamental de la nueva economía y de los
sistemas de servicio.
Impacto en los negocios
Existen muchas nuevas tecnologías y tendencias que se relacionan con la labor
de las TICs en los negocios. Las más relevantes hacen referencia a IT-Enabled
Services e incluyen Tecnologías como Cloud Computing, Computación Distribuida
(Grid Computing), Tecnologías Móviles, Wifi , Internet Of Things, Social Media,
Web 3.0, Software Inteligente, Licencias Creative Commons, Data Mining, Text
Mining, Open Data, Sensores de Bajo Costo RFID, Sistemas de Bases de Datos,
Crowd Funding, Crowd Sourcing, Green IT, y Big Data, entre otras.
En conjunto dichas tecnologías y tendencias presentan un mundo en el cual los
costos de monitorear en tiempo real el desempeño de las cosas, procesos
productivos y personas, es cada vez menos oneroso, siendo igualmente posible el
que cada uno de estos genere, almacene y envíe gran cantidad de datos,
estructurados y no estructurados, en tiempo real a bases de datos ubicadas en la
Nube. Licencias creative commons difuminan la línea entre la propiedad intelectual
privada y la pública, creando licencias de uso de software que son a la vez
privadas y públicas adaptándose al destino que estas reciban, por ejemplo,
213
cuando estas son utilizadas por universidades u otras entidades sin fines de lucro.
El software inteligente y de open source o fuente gratuita, además hace factible el
analizar esta gran cantidad de datos de una manera eficiente.
El acceso y las tecnologías de Nube, también permiten obtener grandes
economías de escala, así como también una gran flexibilidad en el uso y manejo
de recursos, aumentando o reduciendo el acceso a los recursos computacionales,
de software o incluso de mano de obra a bajo costo, en tiempo real, y pagando
solo por lo requerido para proveer un servicio en particular. Desde la mirada de la
estrategia empresarial, las mencionadas fuerzas de cambio han impactado
fuertemente el nivel de competencia siendo cada vez más difícil la creación y
mantención de ventajas competitivas a la usanza de Porter (Porter, 1980; 2008).
Es así que han nacido nuevos modelos de análisis de competencia estratégica,
destacándose el enfoque de Hipercompetitividad de D ‘Aveni (D’Aveni, 1998). En
este se plantea que en un mundo rápidamente cambiante, la total dedicación de la
empresa a sostener ventajas competitivas es una tarea imposible y desgastante
que hace uso ineficiente de recursos que deberían ser utilizados no en mantener
ventajas competitivas, sino más bien en detectar sus debilidades y hacerlas
fracasar rápidamente con el objeto de reconstruirlas o crear nuevas, antes de que
estas sean deterioradas por el entorno.
Este es quizás el enfoque de empresas como Google, las cuales basan su
estrategia en el lanzamiento constante de decenas de nuevos productos y
funcionalidades gratuitos en versión de prototipo o experimental, las cuales son
primero probados masivamente de manera de obtener la mayor cantidad de
retroalimentación de los usuarios y que permita adaptar y mejorar el producto, o
descartarlo definitivamente antes de lanzarlo oficialmente en segmentos más
rentables como el de usuarios empresariales. Clásico es el ejemplo de su
producto estrella, gmail, el cual a pesar de llevar años en el mercado todavía se
encontraba oficialmente en versión beta hasta el año 2009, y el cual es ahora
ofrecido como parte de la gama pagada de productos Google a pequeñas y
medianas empresas, siendo todavía gratis para uso no comercial.
214
Tanto desde el punto de vista de Porter como del de D ‘Aveni, el rol de las TICs es
claro, el cual es el de apoyar la labor estratégica, ya sea sosteniendo y
defendiendo ventajas competitivas, o ayudando a la rápida autodestrucción y
regeneración de las mismas. Para que esto ocurra los sistemas de Inteligencia de
Negocios deben proveer información relevante, flexibilidad, velocidad y capacidad
de reacción a los cambios del entorno, siendo un ejemplo claro el de facilitar el
acceso a información integrada que pueda ser utilizada por la organización para
tomar decisiones adecuadas, en menores tiempos, y con un mayor nivel de
certeza.
En este sentido, debe destacarse que la recolección de datos por parte de las
empresas, no ha sido tradicionalmente un fin, sino más bien un subproducto que
les ha permitido crear y mantener sus ventajas competitivas. Lo clave entonces no
es el Volumen y la Variedad de los datos que tenga su empresa, sino en el cómo
estos datos están siendo utilizados para mejorar las ofertas que son entregadas a
sus clientes a través de innovaciones en los productos y servicios, y el cómo
estos, pueden ser utilizados para generar información que permita renovar o crear
desde cero nuevos modelos de negocios. El Valor en los nuevos productos,
servicios o modelos de negocios ofrecidos es por lejos la contribución más
relevante de la adopción de TICs.
La buena noticia es que la evidencia empírica muestra que aquellas empresas que
adoptan una filosofía de administración y toma de decisiones soportada en el
análisis de datos tienen un mejor desempeño en términos de productividad y
rentabilidad (McAfee & Brynjolfsson, 2012). Si bien en la literatura académica aún
no está zanjada la discusión de cuáles son los mecanismos detrás de esta
generación de valor, sí está claro que los datos pueden ser utilizados para generar
mejoras incrementales en los procesos y servicios. De acuerdo a Davenport
(2014) existen cuatro maneras principales en que este Valor puede ser generado:
vía reducciones de costos, vía reducciones de tiempo, vía mejoras en la toma de
decisiones, y vía mejoras en los productos y servicios.
215
La reducción de costos es el objetivo principal de numerosas compañías, pues
permite una mejora evidente en la oferta de “valor por dinero” a sus clientes. Como
tal, la reducción de costos puede darse en dos dimensiones. La primera hace
relación directa con la estrepitosa caída de los costos de almacenamiento y
procesamiento de datos la que hace que industrias que por su naturaleza tengan
que lidiar con grandes bases de datos se vean directamente beneficiadas. Ejemplo
de estas son las Energéticas, Financieras, Retailers, Salud, Telecomunicaciones,
Media, entre otras. La segunda dimensión hace referencia a empresas que ven
reducidos sus costos como resultado complementario al haber realizado mejoras
en su cadena de valor. Por ejemplo, con el objetivo de mejorar su relación con sus
clientes una empresa puede realizar un estudio acabado de los patrones de
compra a través de internet, identificando nuevos segmentos y potenciales
mejoras de productos a dichos clientes. De paso, el reenfocar sus esfuerzos de
marketing con la información generada logrará además reducir los costos por
campaña, haciéndolas probablemente más eficientes y rentables.
El segundo objetivo típico de la implementación de proyectos de (Big) Data es la
reducción en el tiempo necesario para realizar un proceso particular. A esto
también se le conoce como reducción el “círculo de retroalimentación”, es decir, el
tiempo que toma una empresa en reaccionar a nueva información proveniente del
entorno, implementando alguna nueva medida o acción con base en dicha
información. Las compañías de Retail, por ejemplo, pueden reducir enormemente
el tiempo que les toma el definir e implementar una estrategia de precios, de
varios días a minutos y segundos, reaccionado rápidamente a un cambio
inesperado en la demanda producto de una crisis climática.
El tercer objetivo está relacionado nuevamente con la creación de nuevos
productos, servicios o modelos de negocios con base en la información extraída
de los datos. Una empresa podría mejorar sus contratos de servicios e intervalos
de mantención de productos industriales analizando los patrones de errores o
quejas recurrentes de sus clientes que se aprecian en los datos. La innovación en
nuevos productos y servicios “personalizados” es un área importante en la que la
216
gran cantidad de información existente en los sitios de redes sociales juega un rol
preponderante dado que le permiten a las empresas un nivel de acceso a las
preferencias de sus clientes, tanto en contenido, cantidad y velocidad, nunca antes
visto.
Relacionado a lo anterior, el apoyo a la toma de decisiones interna es una cuarta
manera en que los datos pueden convertirse en valor agregando nuevas fuentes
de datos a los diferentes modelos descriptivos y predictivos. Preguntas tales como
¿qué ofertas deberíamos ofrecerle a nuestros clientes?, ¿qué clientes son los más
rentables? O ¿cuál es el mejor precio al que deberíamos vender nuestro
producto? son algunas de las preguntas claves que podrán ser contestadas de
manera más eficiente a través de modelos predictivos y descriptivos enriquecidos,
las que luego serán convertidas en nuevos productos y servicios.
Por otra parte, nuevas realidades también pueden ser creadas en la medida que la
información permita innovar de manera disruptiva cambiando completamente el
paradigma tradicional de hacer negocios. Si se piensa, modelos de negocios en el
que se cobra por las “donuts” virtuales que utiliza Homero Simpson en el juego de
SmartPhone, o las “vidas” de Candy Crush en el juego de Facebook son ejemplos
claros de innovación disruptiva en la manera de generar flujos de ingresos
generadas por compañías que basan su éxito en la analítica de miles de datos de
horas de juegos y navegación de sus usuarios.
Un quinto objetivo, no mencionado por Davenport, pero altamente importante, se
refiere a la adopción de tecnologías (Big) Data como una medida de
supervivencia, en el sentido, de que empresas tardías en su adopción pueden ser
desplazadas por aquellos adoptadores tempranos. Los riesgos de ser el primero
en generar ventajas competitivas con una determinada tecnología o modelo de
negocio son bastante considerables, y en este sentido, las empresas deben definir
si el adoptar la tecnología de manera rezagada puede permitirles el defender su
posición estratégica actual, manteniendo barreras a la entrada o a la salida que se
verían altamente deterioradas si la tecnología no es adoptada.
217
La Figura 1 resume las dimensiones en que el valor de la (Big) Data puede ser
utilizado por las organizaciones.
FIGURA 1.
Dimensiones de Valor Estratégico en la (Big) Data.
Impacto de adopción de TICs en Latinoamérica
De acuerdo a IDC 2014 (Llandez, Anesini, Crippa & Villate, 2014) la innovación y
la creación de valor son dos áreas claves en las que las TICs contribuirán en el
corto plazo en Latinoamérica. Específicamente, se espera que cada vez más
comúnmente se definan áreas y cargos específicos dentro de la organización para
que se encarguen de alinear los objetivos estratégicos de la misma con las TICs
que las habilitan. Así se habla de que cargos como Chief Information Officer
(CIOs) y equivalentes tendrán cada vez más protagonismo en las empresas
latinoamericanas. Dentro de sus roles específicos se espera la alineación de
contratos de nivel de servicios o service-level-agreements (SLAs), la reducción del
tiempo de retroalimentación de las decisiones de negocios, la que se vería
reflejada en cambios e innovaciones específicas en las líneas de productos y el
tiempo a mercado de nuevos servicios, modelos de negocios, y propuestas de
valor. Se espera que estos nuevos modelos de negocios sean diseñados con una
filosofía de “mobile-first” es decir, que sean inmediatamente compatibles con las
218
nuevas exigencias de movilidad y conectividad continua que los nuevos usuarios y
clientes exigen.
La estructuración organizacional, estructuras de negocios, y estructuras de TICs
que están tradicionalmente a cargo de las funciones de un CIOs serán cada vez
más cargo de otras áreas dentro de la empresa, debiendo socializarse la
responsabilidad de la alineación de las TICs con los procesos de negocios
mismos. Así es como áreas tradicionalmente no tecnológicas, como ventas,
marketing y recursos humanos han incrementado su adquisición de tecnologías de
información hasta un 60% durante el 2014 (Llandez, Anesini, Crippa, & Villate,
2014). En este escenario, se espera que las empresas latinoamericanas continúen
el camino de transformación y adopción masiva de TICs, por ejemplo, migrando
cada vez más plataformas de 3era Generación, las que consideran arquitecturas
basadas en la Nube, la Big Data, la adopción de tecnologías móviles y de redes
sociales. Por ejemplo, el 2014 la inversión en TICs en Latinoamérica fue cercana a
los US$139 billones, creciendo un 8.4% respecto de 2013.
La adopción incremental de Plataformas TICs de 3era Generación conllevará la
creación más que nada de nuevos modelos innovadores de negocios, y en
consecuencia, además requerirá la creación de nuevas métricas de retorno a la
inversión, tiempos de repuesta, usabilidad, escalabilidad y otras para medir el
impacto de su adopción. De acuerdo al pronóstico de IDC 2014 (Llandez, Anesini,
Crippa & Villate, 2014) las tecnologías y servicios relacionados con tecnologías de
Big Data crecerán desde $3.2 billones de dólares en el 2010 a $16.9 billones en el
2015. Esto representa un crecimiento anual estimado de 39.4% el que siete veces
más grande que el crecimiento esperado para la totalidad del mercado de ICTs.
La industria de la (Big) Data en Latinoamérica y el Mundo
De acuerdo al pronóstico de IDC 2012 (Vesset et al., 2012) las tecnologías y
servicios relacionados con tecnologías de Big Data crecerían desde $3.2 billones
de dólares en el 2010 a $16.9 billones en el 2015. Esto representa un crecimiento
219
anual estimado de 39.4% el que siete veces más grande que el crecimiento
esperado para la totalidad del mercado de TICs.
También de acuerdo a IDC 2014 (Llandez, Anesini, Crippa & Villate, 2014)
Latinoamérica aún se encuentra en una fase de evangelización de las tecnologías,
en la que los principales proveedores están dedicando grandes esfuerzos en
promover los beneficios de su implementación. Es así como para el año 2018 se
espera que el gasto en Big Data llegue a US$6.590 mil millones, expandiéndose
un 657% en cinco años. Chile, Colombia y Perú son los países donde más se
invertirá en Big Data, siendo Chile el país con mayor tasa de crecimiento de
adopción de las tecnologías.
Para fines de 2014 el estudio afirma que más de 20% de las empresas medianas y
pequeñas de la región estarán analizando datos semiestructurados provenientes
de sitios sociales, videos y/o datos generados por sensores. Se estima que más
del 65% de los usuarios brasileños y mexicanos de sitios sociales gastan más de
una hora por semana en Facebook, y un 24% lo hace en Twitter. Desde el punto
de vista empresarial, el 56% de las empresas latinoamericanas están usando
sitios sociales o de comunidades virtuales para obtener retroalimentación de sus
productos y servicios.
Sin embargo, aún existe mucho espacio para crecer, dado que la adopción de
estas tecnologías aún no se considera prioritario para las compañías de la región.
De acuerdo con la Encuesta de Prioridades de TI 2014 de TechTarget, un 32% de
las compañías latinoamericanas aún no tiene planes para incluir esta tecnología
en el negocio, mientras que un 23.9% apenas está evaluando la opción de usar y
gestionar grandes datos en su organización. Otra encuesta de opinión realizada
en la región por Capgemini y referenciado por (TechTarget, 2013) muestra una
foto similar en la que un 66% de los encuestados opina que la recopilación de
datos impulsa la estrategia de negocios de la empresa y la toma de decisiones,
pero poco más de la mitad (55%) no considera a Big Data como algo estratégico.
220
Conclusiones
El acceso universal a la tecnología no debe ser visto como una ventaja competitiva
en sí misma, sino que por el contrario, es un desafío importante con el cual las
empresas y administradores deberán lidiar. Problemas igualmente importantes
hacen relación con la ética empresarial, y frontalmente, con el abuso y la ilegalidad
en la que se puede incurrir si las tecnologías son mal utilizadas, por ejemplo, si
datos sensibles, privados, o comercialmente críticos son utilizados en la
competencia desleal o en comportamientos oportunísticos. Su mala utilización
probablemente genere situaciones que puedan dejar fácilmente a una empresa
fuera de mercado, comprometer la propiedad privada, o dañar la integridad física y
sicológica de las personas.
Desde el punto de vista social, además, el acceso universal pero no equitativo a
los sistemas hace que aun existan desigualdades socioeconómicas y de
conocimiento, planteándonos preguntas y desafíos acerca del cómo las TICs
pueden ayudar a resolver los grandes problemas de la humanidad, tales como el
cambio climático y la pobreza. Estas tendrán un rol clave en ayudar al uso
eficiente y sustentable de recursos, a mejorar la igualdad de oportunidades, la
distribución de ingresos, y el acceso al conocimiento, no tan solo de índole
económico, sino también científico, tecnológico y social.
Con todo, en una región en vías de desarrollo como la nuestra, su rol en el apoyo
a la innovación en la labor de las PYMEs y al emprendimiento es aún más crucial
debido a que la mayor parte de la generación de empleo y riqueza se asocia a
organizaciones de tales características. Estas se podrían ver altamente
beneficiadas con el acceso a tecnologías a través de la Nube, de bajo costo
relativo, modelo de pago por uso y alta escalabilidad, mejorando su capacidad de
innovación, eficiencia y competitividad.
221
Referencias
D’Aveni, R. A. 1998. Waking up to the new era of hypercompetition. The Washington Quarterly.
doi:10.1080/01636609809550302
Davenport, T. 2014. Big Data@work. Harvard Business Review Press.
IBM, & Computing.co.uk. 2012. SMARTFACTS. Retrieved from http://smartfacts. mobi/
Kwan, S. K., Yuan, S.-T., Demirkan, H., Spohrer, J. C., & Krishna, V. 2011. Customer- Driven Value
Co-Creation in Service Networks. In Th e Science of Service Systems (Vol. Service Sc).
Springer.
Llandez, A., Anesini, D., Crippa, L., & Villate, R. 2014. IDC Latin America Predictions 2014. IDC
Report #LA14047.
Maglio, P., & Spohrer, J. 2008. Fundamentals of service science. Journal of the Academy of
Marketing Science, 36(1),18–20. doi:10.1007/s11747-007-0058-9
McAfee, A., & Brynjolfsson, E. 2012. Big Data. The management revolution. Harvard Business
Review, 90, 61–68. Retrieved from
http://www.buyukverienstitusu.com/s/1870/i/Big_Data_2.pdf
Porter, M. E. 1980. Competitive Strategy. Techniques for Analyzing Industries and Competitors, 1,
396. Retrieved from http://www.amazon.com/Competitive- Strategy-Michael-E-
Porter/dp/0743260880
Porter, M. E. 2008. Th e fi ve competitive forces that shape strategy. Harvard Business Review, 86,
78–93, 137. doi:Article
The Standish Group International, C. 2013. CHAOS MANIFESTO 2013 (pp.1–48). Retrieved from
http://www.versionone.com/assets/img/files/CHAOSManifesto2013.pdf
Vargo, S. L., & Lusch, R. F. 2004. Evolving to a New Dominant Logic for Marketing. Journal of
Marketing, 68, 1–17.
Vargo, S. L., & Lusch, R. F. 2008. Service-dominant logic: continuing the evolution. Journal of the
Academy of Marketing Science, 36, 1–10.
Vesset, D., Morris, H. D., Eastwood, M., Woo, B., Villars, R. L., et al. 2012. Worldwide Big Data
Technology and Services 2012-2015 Forecast.
222
LO ‘BIG’ Y LO NO TANTO
David Díaz
Mohamed Zaki
Introducción
En el presente capítulo se discute el rol protagónico de la “(Big) Data” y cuáles son
los nuevos modelos de negocios que están naciendo alrededor del análisis y
procesamiento masivo de datos, considerando el valor estratégico para las
empresas. En particular, este documento se enfoca desde la perspectiva privada
en cómo el almacenamiento y procesamiento sostenido de datos, en mayor o
menor escala, puede permitir a las organizaciones innovar en la reformulación de
sus estrategias y modelos de negocios, entregando mayor valor a sus clientes por
medio de nuevos productos y servicios. Además, se plantearán desafíos
importantes en este ámbito para las empresas en Latinoamérica.
Si bien el almacenamiento sistemático de datos por parte de las organizaciones no
es algo nuevo, la masificación de las TICs ha generado que las tasas de
crecimiento en la cantidad de data almacenada alcance un ritmo nunca antes
visto. Existen numerosas estadísticas que se refieren a los miles de millones de
bytes que se están generando y se generaran en el futuro cercano, sin embargo,
para un lector poco habituado al lenguaje computacional es necesario colocar
estas cifras en perspectiva: Erich Schmidt, Director Ejecutivo de Google, afirmó en
el año 2010 que la humanidad actualmente genera en el transcurso de dos días el
equivalente a TODA la información que fue generada por la humanidad entre el
siglo IV A.C. (inicios de la protoescritura) y fines del año 2003.
Quizás incluso más importante que la cantidad de datos generados es la variedad
de los mismos. Diversos actores de mercado, entre ellos IBM y Oracle, estiman
que el 80% de los datos actualmente generados presentan contenidos no
estructurados o semiestructurados. Por estructurados se entienden todos aquellos
datos que son susceptibles de almacenar en un formato de bases de datos
223
tradicional, por ejemplo, una lista de transacciones o datos de clientes en formato
de tabla de Excel. Los semiestructurados incluyen archivos cuya estructura o falta
de la misma hacen más difícil su análisis o compilación, por ejemplo, data de
interacciones en sitios de redes sociales (Facebook, Twitter, etc.), imágenes y
videos sin catalogar, documentos de procesadores de texto, mensajería de texto,
archivos de audio, entre muchos otros.
El problema que surge de la gran variedad de formatos semiestructurados es la
dificultad que tienen los sistemas actuales para procesarlos, integrarlos y
convertirlos en información relevante que pueda ser útil para la toma de
decisiones. Para ejemplificarlo, el lector puede pensar en lo relativamente simple
que es obtener una lista que contenga todas las canciones de los Beatles que
fueron nro.1 si es que dicha información ya ha sido almacenada como una tabla
en formato Excel, y por el contrario, lo extremadamente complejo que sería
realizar esta misma tarea, si en vez de esta lista, tuviéramos solo los archivos de
audio en formato mp3 sin más información que las canciones mismas.
Definiciones de Big Data
Las primeras definiciones del concepto fueron fuertemente influenciadas por el
gran volumen de datos generados, sin embargo, las definiciones han ido
evolucionando en el tiempo. Por ejemplo Manyika et. al., (2011) definen Big Data
como un “set de datos cuyo tamaño está más allá de las habilidades típicas de los
software de datos tradicionales para capturarla, almacenarla, administrarla y
analizarla”. Gartner (2012) la define como activos de información de alto Volumen,
alta Velocidad y alta Variedad que requieren formas innovadoras y eficientes de
procesamiento que habiliten su mayor compresión y una toma de decisiones
superior”. IDC 2012 (Vesset et al., 2012) la define como “la nueva generación de
tecnologías y arquitecturas de TICs que están diseñadas para extraer valor
económico desde grandes bases de datos en una amplia variedad de ellos a
través de habilitar la captura en alta velocidad, el descubrimiento y el análisis de
los mismos”.
224
Como puede apreciarse, al gran Volumen y Variedad existente en los datos se
suelen agregar variadas ‘Vs’ para describirlas. Estas incluyen a la ‘Velocidad’ con
los que los datos están siendo creados, procesados y analizados y la ‘Veracidad’ o
calidad de los mismos. Finalmente el ‘Valor’ potencial imbuido en las mismas nos
muestra como la ‘Big Data’ o la ‘Data a solas’ puede ser entendida como un Activo
Estratégico en sí mismo, el cual debe ser monitoreado, administrado, y protegido.
El Valor Estratégico de la ‘Big’ y no tan ‘Big’ Data
Desde la perspectiva de la economía global, hay quienes consideran que los datos
son un nuevo factor de producción, incorporándose a la lista de factores
tradicionales: tierra, trabajo y capital. Sin embargo, los datos por sí mismos no
generan valor, por lo que es necesario su procesamiento para que la información
que pueda ser obtenida de ellos se convierta en valor para alguien. Si bien
algunos autores plantean que los datos son el nuevo petróleo (Rotella, 2012), una
analogía más interesante es considerar a los datos como un diamante en bruto. Si
bien estos poseen valor en sí mismos, su valor no es realizado completamente
hasta que estos no han sido propiamente trabajados y elaborados por un experto
225
el que sacará a relucir las mejores características del mismo por medio de
variados procesos y transformaciones. Así, la ‘(Big) Data solo puede transformarse
en ‘Big Business’ en la medida que su valor estratégico sea extraído por medio de
varios procesos empresariales para luego ser canalizado hacia acciones y
destinatarios concretos.
Este valor se realiza en la medida que este procesamiento genere información que
sea utilizada en las operaciones cotidianas a todo nivel, fomente la innovación,
ayude en la toma de decisiones, permita trabajar en equipo, tanto en tiempo real
como de manera asincrónica, y que en definitiva impulse el aprovechamiento del
conocimiento empresarial apoyando los procesos de negocios y la relación con el
medio, incluidos clientes, proveedores y stakeholders. Las principales áreas de
generación de valor incluyen la mejora y optimización de los procesos de
negocios, la mejora de la relación con los clientes, la detección de nuevos
segmentos de mercado, el perfeccionamiento de las comunicaciones y relaciones
con proveedores, el monitoreo renovado de la competencia, la generación de
nuevos flujos de ingresos, entre muchos otros.
En este sentido, debe destacarse que la recolección de datos por parte de las
empresas, no ha sido tradicionalmente un fi n, sino más bien un subproducto que
les ha permitido crear y mantener sus ventajas competitivas. Lo clave entonces no
es el Volumen y la Variedad de los datos que tenga su empresa, sino en el cómo
estos datos están siendo utilizados para mejorar las ofertas que son ofrecidas a
sus clientes a través de innovaciones en los productos y servicios ofrecidos, y el
cómo estos, pueden ser utilizados para generar información que permita renovar o
crear desde cero nuevos modelos de negocios. La ´V´ de Valor en los nuevos
productos, servicios o modelos de negocios ofrecidos es por lejos la más
importante.
226
Modelos de Negocios Basados en Datos ‘Big’ y no tan ‘Big’
Entonces, ¿cuáles son las posibles maneras en que se podría generar un negocio
en torno a la (Big) Data? Para contestar esta pregunta en esta sección
realizaremos un recorrido por diferentes modelos de negocios que están siendo
creados en diferentes partes del mundo y nos abocaremos a la tarea de tratar de
clasificarlos. Para ello discutiremos un Framework o Marco Teórico recientemente
propuesto por (Hartmann, Zaki, & Feldmann, 2014) en el cual se analizaron y
clasificaron más de 100 modelos de negocios de compañías Start-Ups las cuales
basan su núcleo de negocios en alguna manera innovadora de monetizar
diferentes ofertas –productos y/o servicios– que dependen primordialmente de la
explotación de datos.
La elección de compañías Start-Ups como caso de estudio no es trivial, dado que
de alguna manera las nuevas empresas poseen la capacidad de “partir desde
cero” al definir y diseñar la manera en que estas propuestas de valor serán
configuradas, lo que les da una amplia libertad a la hora de innovar en el modelo
de negocio ofrecido. En este sentido, el Framework propuesto presenta un
ejercicio interesante no tan solo a quienes estén pensando en crear una nueva
empresa dedicada a la explotación de datos, sino también a grandes y pequeñas
empresas que quieran explorar las posibilidades de la (Big) Data. Desde la
perspectiva de Latinoamérica, por ejemplo, el desafío propuesto es el detectar
nichos de negocios (Big) Data que son esbozados en el Framework, y el cómo
empresas ya existentes pueden adaptar sus modelos de negocios para incorporar
componentes (Big) Data. A continuación discutiremos con más detalles los temas
propuestos.
¿Qué se entiende por un Modelo de Negocios?
En la literatura académica existen numerosas definiciones de los Modelos de
Negocios, y los componentes clave en su conformación. Uno de los primeros
artículos fue escrito por (Chesbrough & Rosenbloom, 2002). Según los autores, un
Modelo de Negocios es la manera en que una compañía articula las propuestas de
227
valor que la misma ofrece a sus clientes, es decir, el valor creado para los
usuarios a través de ofertas que son posibles gracias a las tecnologías que la
firma utiliza. Así un segmento de mercado es definido por los autores como los
usuarios a quienes la tecnología ofrecida es útil, cuál es su propósito y especifica
la manera en que esta genera ingresos para la compañía.
Hedman y Kalling (2003) complementan la definición anterior incorporando
conceptos relacionados con el ambiente competitivo en el que está inserta la
empresa y además separa y define de manera más concreta los componentes y
conceptos clave de un modelo de negocios. El artículo identifica siete
componentes específicos: i) los Clientes, ii) los Competidores (industria), iii) la
oferta o propuesta de valor (estrategia genérica), iv) las actividades y la
organización de las mismas (cadena de valor), v) los recursos y vi) la fuente de los
mismos (factores de producción), y finalmente vii) los procesos longitudinales por
los cuales el modelo evoluciona y se modifica. Johnson et al. (2008) incorpora
además los componentes que le permiten a la firma generar valor para sí misma y
sus accionistas. La rentabilidad de la misma se genera con base en el modelo de
ingresos propuesto, su estructura de costos, los márgenes obtenidos, la y
eficiencia de los activos utilizados.
Basado en los trabajos anteriores, quizás el trabajo más conocido y utilizado por
los ejecutivos y emprendedores es el famoso “Business Model Canvas” o “Lienzo
de Modelos de Negocios” presentado por (Osterwalder & Pigneur, 2010). En este
trabajo se sintetizan los componentes o bloques de un modelo de negocios los
cuales incluyen principalmente la propuesta de valor, los procesos, recursos y
alianzas claves, la manera en que las relaciones con los clientes son establecidas,
los canales a través de los cuales los clientes son contactados, y la manera en
que todo esto genera ingresos con su estructura de costos asociada.
228
Modelos de Negocios Basados en (Big) Data
De manera de organizar las diferentes configuraciones en que la (Big) Data puede
generar valor (Otto & Aier, 2013) son uno de los primeros autores en describir
modelos de negocios basados en la explotación de Datos. Ellos identifican grupos
de compañías cuyo principal fin es la recolección, agregación y entrega de datos
organizados de manera sistemática para que puedan ser posteriormente utilizados
por otras empresas. Los autores enumeran tres tipos de empresas de acuerdo al
tipo de datos que sistematizan: a) “datos empresariales” (por ejemplo, direcciones
y nombres de empresas, códigos de clasificación de industrias, sectores
industriales, etc.); “Datos de Contactos” (por ejemplo, números telefónicos,
direcciones de e-mail de empresas y ejecutivos clave, etc.); e “Información
Bancaria” (por ejemplo, número y tipo de productos bancarios contratados,
situación financiera, garantías tomadas, etc.).
Por otra parte, un grupo numeroso de autores clasifican los modelos de negocios
ofrecidos. Con base en el paradigma de la Lógica Dominante de Servicios Vargo y
Lusch (2008) proponen dos tipos de modelos de negocios: “Datos-como-un-
Servicio” y “Analítica-como-un-Servicio”. Los primeros incorporan aquellas
empresas que agregan y proveen acceso sistemático a un variado grupo de datos
públicos y privados a través de alianzas estratégicas con grandes proveedores de
datos, tales como grupos Mediáticos, Bolsas de Comercio, o Grandes
Proveedores de Salud como ejemplos; y los segundos incorporan aquellas
empresas que proveen servicios como reportes de Inteligencia de Negocios,
Análisis Automático de Texto, y Analítica Avanzada incluyendo las tareas típicas
de la Minería de Datos tales como el modelamiento descriptivo, predictivo y
prescriptivo, en un forma tal que sus clientes puedan tener acceso fácil y directo a
la información extraída de los datos para tomar decisiones de negocios.
Con esto es posible afirmar que los Modelos de Negocios Basados en (Big) Data
no están circunscritos a aquellas empresas que ofrezcan servicios de analítica de
datos, sino también a aquellas que se dedican a sistematizar, agregar y recolectar
datos para su posterior uso por otras empresas. Un tercer tipo de Modelo de
229
Negocios, incluye a todas empresas que no ofrecen propuestas de valor de Datos
en sí mismos, sino que más bien ofrecen nuevos productos y servicios
“tradicionales” a los que se les agrega una propuesta de valor extendida con base
en la información que es posible extraer de los datos. Este grupo de empresas
incluye por ejemplo, empresas que ofrezcan servicios complementarios a sus
productos industriales, las que podrían alertar de la necesidad de mantenimiento
preventivo una turbina o motor dado el análisis de los datos que son capturados
por medio de sensores durante el uso continuo de la maquinaria. General Electric,
Boeing, ABB, AirBus, Caterpillar, por nombrar algunos, son ejemplos de gigantes
de la industria que están transformando sus negocios tradicionales gracias al
poder imbuido en el análisis de los datos.
Framework y Modelo Teórico de Modelos de Negocios Basados en (Big) Data
Los autores (Hartmann et al., 2014) proponen un completo Marco Teórico para
analizar y clasificar modelos de negocios de compañías Start-Ups las cuales
basan su núcleo de negocios en alguna manera innovadora de monetizar
diferentes ofertas –productos y/o servicios– que dependen primordialmente de la
explotación de datos. El Framework considera diferentes características y
componentes modulares que en su conjunto permiten configurar una aplicación
específica de Modelo de Negocios. Para ello utilizan como inspiración los
componentes del Business Model Canvas de Osterwalder (2013) y como tal está
compuesto por seis dimensiones principales. La Figura 1 presenta el Framework y
sus componentes principales. A continuación describimos con detalle cada una de
ellos:
230
FIGURA 1.
Clasificación de Modelos de Negocios Basados en Datos.
(Hartmann ET AL., 2014)
231
Recursos Clave: Por definición un modelo de negocios basado en datos
considera a estos mismos su principal recurso clave. Esto no significa que sea el
único recurso, pero sí que la mayoría de los otros recursos necesarios serán un
soporte a la obtención, manejo y/o análisis de los mismos. Desde un punto de
vista del tipo de datos que pueden ser considerados la literatura los clasifica como
vimos en secciones anteriores en estructurados y no estructurados. Además,
estos pueden ser clasificados según si su fuente es Interna o Externa. Las fuentes
internas incluyen fuentes que ya existen o que están siendo desarrolladas en los
sistemas de TICs de la empresa (sistemas CRM, ERP, SCM, etc.), y datos
generados para propósitos específicos de monitoreo, ya sea de actividades en la
Red, tales como el web tracking, o adquiridos por medio de sensores físicos o a
través de la externalización de tareas a muchedumbres por medio de la Internet
(Crowdsourcing). Los datos externos consideran datos que son comprados a
terceros y/o provistos por socios estratégicos los cuales son por naturaleza
privados, además de datos que se encuentran libremente disponibles en la
Internet. Estos últimos pueden a la vez ser subcategorizados en Open Data (datos
libremente disponibles en formato electrónico y fácilmente utilizable en bases de
datos), Social Media Data (provenientes de sitios sociales como Facebook), y
WebCrawled data (datos que pueden ser recolectados por medio de software
especializados en filtrar, seleccionar y descargar de manera eficiente los datos
disponibles en Internet).
Actividades Clave: Estas incluyen la “Recolección”, “Adquisición”,
“Procesamiento”, “Agregación”, “Analítica”, “Visualización” y “Distribución” de
Datos. Para recolectar y adquirir datos las empresas pueden generar sus propios
datos internamente o pueden obtenerlos de una fuente externa. La generación
puede ser hecha de varias maneras, ya sea manualmente por personal interno,
automáticamente por medio del uso de sensores y herramientas de monitoreo, o a
través de la externalización por medio de Crowdsourcing. El procesamiento y la
agregación incluyen tareas tradicionales en la comunidad de bases de datos, tales
como la extracción de datos de diferentes bases de datos, su transformación,
limpieza, síntesis en tablas o reportes resumidos. La Analítica es probablemente
232
una de las actividades más interesantes, en el sentido que es donde los algoritmos
de última generación de procesamiento de datos pueden entregarnos una
comprensión valiosa de la información contenida en los datos. Esta actividad
incluye la descripción de patrones en los datos y el descubrimiento de relaciones
históricas en los mismos, además de permitirnos prepararnos proactivamente para
el futuro por medio de técnicas predictivas y de optimización (análisis de
optimización y de preparación de escenarios “Si-Entonces”) las que nos sugieren
qué caminos seguir. Las técnicas modernas de data y text mining además ponen
un gran énfasis en la fácil comprensión y visualización de los modelos y patrones
encontrados en los datos para la toma de decisiones, por lo que visualización y
distribución de resultados es otra actividad clave que puede ser entregada como
propuesta de valor.
Propuestas de Valor: Siguiendo una de las definiciones más usadas por las
comunidades de Minería de Datos, el valor propuesto en los modelos de negocios
basados en datos puede ser categorizado en tres tipos: a) datos, los que
constituyen una serie de hechos o mediciones de la realidad sin una interpretación
añadida, b) información y conocimiento que nace del procesamiento de los datos
dándoles contexto y sentido y c) ofertas de valor complementario a productos y
servicios industriales y comerciales, con base en los datos que son recolectados y
analizados. Ejemplo de estos pueden ser empresas que sugieren un producto o
servicio determinado, de acuerdo a los patrones de consumo y/o geolocalización
de un cliente, o como se mencionó antes, empresas que ofrecen mantenimiento
preventivo de acuerdo al comportamiento de la maquinaria que es posible deducir
de los datos capturados por medio de sensores automáticos incluidos en ella
(piense en el caso de un Automóvil o Avión Inteligente).
Segmentos de Clientes: De acuerdo a los autores, existen variadas formas de
segmentar a los clientes, las que incluyen típicamente sus características
psicológicas, demográficas, geográficas, canales de compra, conductuales, entre
otras. Sin embargo, ellos utilizan la clasificación genérica, dividiendo a los clientes
233
en empresas (B2B) y consumidores individuales (B2C), siendo posible dedicarse a
atender cada segmento por separado o en conjunto.
Modelo de Generación de Ingresos: De manera de hacer un negocio rentable
cada empresa debe poseer al menos una fuente sostenible de ingresos.
Típicamente estos son clasificados en siete categorías, las que no son
excluyentes, es decir, una empresa puede tener una o más fuentes de ingresos:
venta directa o tradicional de activos (tangibles o intangibles como los digitales);
arriendo o préstamo temporal de activos, entregando momentáneamente los
derechos exclusivos de uso sobre un activo en un periodo de tiempo definido; el
licenciamiento, entregando la licencia de un activo a cambio de un pago; el cobro
por uso de acuerdo al consumo medido en unidades por unidad de tiempo; la
subscripción en la que se cobra una tarifa por el uso del activo; una comisión por
la intermediación entre dos partes que se transfieren un producto y servicio; y la
publicidad.
Estructura de Costos: Al ofrecer una propuesta de valor una empresa incurre en
costos y en la utilización de sus recursos los que son limitados (tiempo, capital,
trabajo, tecnología, etc.) Respecto de este punto, los autores ponen énfasis en si
existe alguna ventaja relativa respecto del costo de usar, recolectar y analizar los
datos. Típicamente una empresa tendrá una ventaja específica de costos si es que
los datos usados en sus productos o servicios son creados independientemente
(como un subproducto) de otros bienes y servicios. Por ejemplo, una compañía
que manufactura automóviles tiene dicha ventaja si captura y usa los datos que
son automáticamente generados por los sistemas y sensores incluidos en la
electrónica del automóvil.
Características de empresas con Modelos de Negocios Basados en (Big)
Data
Los autores reportan en su estudio las características generales de cien
compañías Start-Ups que fueron analizadas en las dimensiones anteriormente
234
mencionadas (Hartmann et al., 2014). Dentro de los resultados más importantes
destaca que la mayoría de las empresas analizadas (73%) utiliza fuentes de datos
externas como su recurso clave. Un porcentaje menor de ellas (16%) utiliza ambos
tipos de fuentes, internas y externas, mientras que un 11% utiliza solo fuentes
internas. En términos de las Propuestas de Valor la mayoría de las compañías
ofrecen servicios de analítica de datos (76%), sin embargo, solo un pequeño
número ofrece analítica avanzada, ya sea “prescriptiva” (22%) o “predictiva” (6%).
Asimismo, la gran mayoría de las compañías analizadas utilizan un Modelo de
Ingresos del tipo “suscripción” (62%) o basado en “pago por uso” (20%). Sin
embargo, para un porcentaje bastante grande (62%) no fue posible obtener
información clara acerca del tipo de Modelo de Ingresos utilizados, ya sea porque
no lo divulgan, o porque aún no han sido capaces de llegar a una etapa de
monetización sustentable de sus negocios. Respecto de los Segmentos de
Clientes la mayoría se concentran en negocios del tipo B2B (80%), y un 70% lo
hace de manera exclusiva hacia clientes corporativos. Un 13% escoge como
Segmento Objetivo ambos B2B y B2C.
235
FIGURA 2.
Tipos Genéricos de Modelos de Negocios Basados en Datos
Al comparar los diferentes modelos de negocios de acuerdo al tipo de datos que
utilizan, y al tipo de Actividad Clave en la que se enfocan es posible realizar un
mapa de posicionamiento, en el que se identifican seis tipos básicos de Modelos
de Negocios. De acuerdo a sus características estos fueron denominados como
(ver Figura 2):
• Tipo A: “Recolector e Integrador de Datos Libres de Cobro” (‘Free data
collector and aggregator’).
• Tipo B: “Analítica-como-un-Servicio” (‘Analytics-as-a- service’).
• Tipo C: “Generador de Datos y Análisis” (‘Data generation and analysis’).
• Tipo D: “Descubridor de Conocimiento Gratuito” (‘Free data knowledge
discovery’).
• Tipo E: “Agregador-de-Datos-como-un-Servicio” (‘Data-aggregationas-a-
service‘).
236
• Tipo F: “Collage de datos Multi-Fuente y análisis” (‘Multi-source data
mashup and analysis’).
Conclusiones
El Framework propuesto representa un punto de partida y mapa de referencia para
el análisis y la agrupación de los modelos de negocio basados en datos
existentes. Sin embargo, no pretende ser una mirada estática y definitiva de la
realidad, por lo que es muy posible que en los próximos años veamos nuevas
formas de generar un negocio rentable en torno a la explotación de datos.
Con todo, la contribución del Framework es mostrar a los practitioners las
diferentes opciones al diseñar un modelo de negocio para su empresa específica y
las dimensiones y las diversas características que pueden ser relevantes para su
conformación. El marco permite la identificación y la evaluación de posibles
fuentes de datos disponibles que se pueden utilizar en un nuevo negocio. Además,
ofrece ejemplos de actividades clave, así como los modelos de ingresos más
frecuentes. Los diferentes tipos proporcionan una visión sistemática de las
diferentes formas de crear un negocio los cuales se pueden adaptar a una
empresa o industria específica. También permite a los profesionales posicionar su
negocio en un entorno competitivo y, por tanto, ofrece la posibilidad de identificar
los posibles espacios de oportunidad existentes en el mercado.
En este documento hemos discutido desde la perspectiva privada cómo el
almacenamiento y procesamiento sostenido de datos, en mayor o menor escala,
puede permitir a las organizaciones innovar en la reformulación de sus estrategias
y modelos de negocios, entregando mayor valor a sus clientes por medio de
nuevos productos y servicios. Discutimos en especial, el rol de la (Big) Data y
cuáles son los nuevos modelos de negocios que están naciendo alrededor del
análisis y procesamiento de datos.
La primera conclusión que se presenta en este trabajo es que aún existe mucho
espacio para crecer, especialmente dadas las cifras de adopción y la baja
237
prioridad que estas tecnologías tienen para las compañías de la región. La
segunda conclusión es reconocer que el valor que es relevante desde el punto de
vista del aporte al negocio no depende del gran tamaño o volumen de la base de
datos, de la rapidez con la que los datos son generados, o su gran variedad, sino
más bien, el cómo estos son utilizados para innovar, ya sea reformulando
procesos, reduciendo costos, o generando nuevos productos, servicios y modelos
de negocios. Las empresas deben preguntarse ¿qué tipo de cosas pueden los
datos permitirme hacer que no estamos haciendo actualmente?
Para contestar dicha pregunta, se vuelve relevante el rol de las relaciones con el
medio, por ejemplo, es necesario preguntarse cuáles son mis alianzas clave y mis
socios principales y qué datos externos producidos en todo el ecosistema de la
cadena de valor podrían ayudarme a mejorar mi posición competitiva. Cabe
recordar que la gran mayoría de las compañías Start-Ups en el ámbito de la (Big)
Data utiliza fuentes de datos externas, y que solo una porción muy pequeña de
ellas utilizan tanto fuentes internas como externas. Es así, como otra de las
preguntas clave es el cómo lograr que exista una integración eficiente de datos
provistos por medio de alianzas, o adquiridos comercialmente, y los datos que son
generados internamente en los sistemas de TICs existentes.
Los desafíos para las empresas latinoamericanas comienzan entonces con
asegurar acceso a aquellos datos que puedan ser relevantes para la generación
de valor, independiente de si están actualmente almacenados en mis sistemas de
bases de datos existentes, o si es necesario realizar acciones estratégicas que
permitan adherirse a fuentes externas. ¿Es necesario realizar una nueva alianza,
un proyecto de Externalización tradicional o Crowdsourcing, o integrarnos vertical
u horizontalmente para generar los datos que necesitamos?
Relacionado al punto anterior, es necesario clarificar quién es el dueño de los
datos, y si es necesario obtener permisos para hacer usufructo de los mismos. En
Latinoamérica estamos recién avanzando hacia legislaciones que protejan de
manera efectiva los derechos de los usuarios respecto de sus datos, por lo que
esta es un área en la que podrían existir posibles conflictos éticos y legales, y las
238
empresas deberán poner atención especial a este punto. Además, desde el punto
de vista de protección de propiedad intelectual, en ciertos casos puede ser difícil
distinguir quien es el dueño de los datos que se generan y se almacenan. Por
ejemplo, el lector podría cuestionarse en el caso de la “selfie del mono”13 quien es
el dueño de los derechos de difusión de dicha foto: ¿Es David Slater quien en un
viaje de trabajo a Indonesia fue víctima de la astucia de un mono que tomó su
cámara y se autorretrató?, ¿es Wikipedia quien aloja la foto en sus servidores?,
¿es el mono como autor del disparo de la cámara?, ¿es el mono dado su rol de
“modelo” en la foto? ¿Es el fabricante de cámaras, quien instaló los lentes y
sensores que permitieron la captura de la imagen? ¿Es el fabricante de teléfonos
inteligentes quien provee la tecnología para conectarse al satélite y capturar los
datos vía Bluetooth para luego enviarlos a sus servidores en la nube?, o ¿es el
zoológico el que provee las instalaciones para que nuestro famoso personaje viva
libre de penurias?
13
Para más información se sugiere al lector buscar los términos “selfi e del mono” o “monkey selfi e” en el buscador internet de su preferencia.
239
FIGURA 4.
¿Quién es el dueño de los derechos de autor de la Selfie del mono?
Otro desafío es asegurarme que realmente entiendo el valor capturado en
aquellos datos, lo que está relacionado no tan solo con tener a disposición la
tecnología necesaria para hacerlo, sino también las habilidades y la gente que
sabe utilizarlos. A las habilidades técnicas de manejo de bases de datos, y el
análisis avanzado de los mismos se deben agregar habilidades de negocios, ya
que es necesario tomar decisiones con base en la información y el conocimiento
extraído. No se gana nada con detectar un nuevo segmento de mercado, por
ejemplo, si luego el área comercial no define un plan de marketing adecuado para
atacarlo. Como en todo negocio, otro punto relevante es estudiar si existe alguna
parte interesada para quien dicha información es valiosa, cuánto podría estar
dispuesto a pagar por ella, y cuál es la manera más de acuerda de monetizarla, es
decir, qué tipo de Modelo de Ingresos, y Estructura de Costos y Márgenes son
factibles. Desde el punto de vista más técnico, pero con grandes implicancias
comerciales, es el cómo asegurar la validez de los datos que se están utilizando, y
sobre cuyo patrones decisiones de negocio importantes están siendo diseñadas.
El área ética es otro de los grandes desafíos para las empresas, dado que el
acceso a información valiosa de nuestros clientes y usuarios puede acarrear
240
conflictos en aquellas actividades que utilizan dicha información sin el
consentimiento expreso de los usuarios. A esto además se incluyen acciones de
“experimentación” las cuales son posibles de efectuar con la tecnología actual.
Sitios como Facebook u OKCupid han sido ya cuestionados por realizar
experimentos con los sentimientos de los usuarios, probando si por ejemplo, es
posible alterar o mejorar su estado de ánimo al cambiar las noticias que se
muestran o al sugerir que hacían buena pareja con otra persona.
Dado que la gran mayoría de las empresas en Latinoamérica son PYMES, en
términos de tamaño, el gran desafío es determinar cómo pueden destinar tiempo y
recursos a experimentar con la (Big) Data, siendo quizás las empresas que más
provecho podrían sacarle a las tecnologías dado rol su en la generación de
empleo y riqueza. Estas se podrían ver altamente beneficiadas con el acceso a
tecnologías a través de la Nube, de bajo costo relativo, modelo de pago por uso y
alta escalabilidad, mejorando su capacidad de innovación, eficiencia y
competitividad.
Las grandes empresas y en el otro extremo las Start-Ups, poseen mayor libertad
para experimentar, por lo que desde la política pública el fomento a la adopción de
tecnologías (Big) data debería estar focalizado en mayor medida en aquellas
empresas que no adoptarían dichas tecnologías si no contaran con dicho apoyo.
Para ello, es recomendable, comenzar introduciendo poco a poco en las
organizaciones las tecnologías de (Big) Data, concentrándose inicialmente en un
área o producto o servicio particular, e ir creciendo y construyendo sobre este
proyecto prototipo en la medida que los resultados vayan siendo validados tanto
técnica como comercialmente.
Tanto para grandes como pequeñas empresas el desafío más grande para la
implementación de proyectos de (Big) Data es sin lugar a dudas la escasez de
mano de obra calificada. Esto, porque para la implementación de dichos proyectos
se requiere un perfil especial de profesional el cual debe balancear un grupo de
habilidades computacionales y tecnológicas con habilidades comerciales y
estratégicas altamente complejas. Por el contrario, el hardware y software puede
241
ser más fácilmente adoptado por las empresas en la medida que se cuenten con
los recursos financieros para ello, pero como cualquier herramienta empresarial
avanzada se requieren los profesionales que los sepan rentabilizar.
La escasez de mano de obra especializada en (Big) data no es un tema que solo
ocurra en Latinoamérica, sino que es una tendencia global la que ha llevado a
acuñar un nuevo cargo y perfil, denominado “Data Scientist”, el cual es
considerado por Harvard Business Review como “el trabajo más sexy del siglo
XXI”. De acuerdo a estimaciones de McKinsey Global Institute existirá una
escasez de entre 140 mil y 190 mil profesionales de este tipo para el año 2018
solo en Estados Unidos, y también una escasez de 1,5 millones de
administradores y analistas que sepan cómo hacer buen uso del (Big) data.
Esto ha llevado a que dichos especialistas estén obteniendo salarios altamente
atractivos y que la oferta de dichos puestos de trabajo en los mercados
desarrollados siga creciendo a tasas de 2 dígitos. Asimismo, varias universidades
están creando nuevos programas y grados dedicados exclusivamente a la
formación de dichos profesionales, y existe un espacio de oportunidad para las
Instituciones Educacionales chilenas de ponerse al día en la oferta de
profesionales que requiere el mercado.
242
Referencias
Chesbrough, H., & Rosenbloom, R. S. 2002. The role of the business model in capturing value from
innovation: evidence from Xerox Corporation’s technology spin-off companies. Industrial and
Corporate Change, 11: 529–555.
Gartner. 2012. Big Data Analytics - Free Gartner Research. http://www.gartner.com/it-glossary/big-
data/.
Hartmann, P. M., Zaki, M., & Feldmann, N. 2014. Big Data for Big Business? A Taxonomy of Data-
driven Business Models used by Start-up Firms.
Hedman, J., & Kalling, T. 2003. The business model concept: theoretical underpinnings and
empirical illustrations. European Journal of Information Systems.
J., Manyika, M., Chui, B., Brown, J., Bughin, R., Dobbs, C., Roxburgh, A. H. B. 2011. Big data: The
next frontier for innovation, competition, and productivity. McKinsey Global Institute.
Osterwalder, A., & Pigneur, Y. 2010. Business Model Generation. self published.
http://www.consulteam.be/media/5985/businessmodelgenerationpreview.pdf.
Otto, B., & Aier, S. 2013. Business Models in the Data Economy: A Case Study from the Business
Partner Data Domain. WIRTSCHAFTSINFORMATIK PROCEEDINGS, 475–489.
Rotella, P. 2012. Is Data The New Oil? Forbes.com.
http://www.forbes.com/sites/perryrotella/2012/04/02/is-data-the-new-oil/.
Vargo, S., Lusch, R. 2008. Service-Dominant Logic: Continuing the evolution. Jornal of academy of
marketing science 36: 1-10.
Vesset, D., Morris, H. D., Eastwood, M., Woo, B., Villars, R. L., et al. 2012. Worldwide Big Data
Technology and Services 2012 – 2015 Forecast.
243
MARTES 12 DE DICIEMBRE
9:00 - 10:00
Inscripción
Café de Bienvenida
Horario
Expositor
Temática
10:00 - 10:30
Autoridad Casa de Estudio, Universidad Tecnológica de
Chile INACAP
Palabras de Bienvenida a las autoridades y asistentes al
Congreso
10:30 – 11:30
Sra. Stella Zervoudaki,
Embajadora de la delegación de la Unión Europea en Chile
En su representación asiste el
Promoción del acuerdo de
asociación entre la UE - Chile, nexo entre las universidades
locales y la UE.
11:30 – 12:00
Sra. Pilar Madmuj, Profesional
destacada en el ámbito de Educación Superior.
Capacidad Emprendedora: Sello
de los (as) estudiantes de INACAP, el empoderamiento de
la mujer en la empresa.
12:00 – 12:15
Sra. Fernanda Vicente,
Directora Mujeres del Pacífico, Integra el Directorio de
Scotiabank, fue directora de asociaciones gremiales como
ASELA y ASECH
Fomento de la innovación el emprendimiento en Chile , crecimiento con foco social
12:15 – 12:30
Sra. Claudia Abusleme,
Directora de Mujeres del Pacífico, dirigió el Programa
chileno de formación empresarial para mujeres “Compite+1000 Mujeres”
Emprendimiento Femenino
Obstáculos y Desafíos
PRIMER CONGRESO: Desafíos, Evolución y Tendencias del Territorio Empresarial del siglo XXI
12 - 13 de Diciembre de 2017
Santiago - Chile
244
12:30 – 13.00
Sr. Pablo Pombo, Phd. En
Ciencias Económicas y Empresariales, Experto en
Sistemas de garantía para la micro y pyme en una economía
globalizada
Visión de la dinámica de los
sistemas de garantía de crédito y servicios conexos en sus
diversas modalidades para la micro, pequeña y mediana
empresa, discriminadas por el sistema financiero en la mayoría
de los países.
13:00 – 13:30
Sr. Alessandro Bozzo, Sub-Gerente FOGAPE, Consultor
Experto Banco Mundial
Visión de desarrollo del Sistema
de Garantía en Chile.
13:30 – 15.00
RECESO SUGERENCIAS DE RESTAURANTS (VER ANEXO, SON DE CARGO DEL
ASISTENTE)
15:00 – 15:30
Sr. Víctor Valenzuela V. Phd. En Economía y Administración de
Empresas, U. Europea de Madrid (España) Magister en Comercio Exterior, U. Jaume I – Castellón
(España) Académico Facultad de Economía y Negocios, UNAB,
Sede Los Leones
Una estrategia para gestionar el capital de trabajo de la MIPyME
15:30 – 16:00
Sr. Luis Felipe Madariaga B., Magister en Finanzas UNAB,
Académico Facultad de Economía y Negocios,
Universidad Finis Terrae
Opinión de los analistas
financieros respecto de la información proporcionada por
las IFRS.
16:00 – 16:30
CAFÉ
16:30 – 17:00
Sra. Natalia Bravo B., Magister
en Innovación y Emprendimiento, Universidad
Adolfo Ibáñez. Académico Facultad de
Ingeniería, Departamento de Ingeniería Comercial
Universidad de Atacama
Análisis de problemas que
enfrentan los emprendedores de mipymes del centro de
Copiapó.
245
17:00 – 17:30
Sr Alexis Olmedo N. ( c ),
Doctorado en Administración de Negocios, Facultad de Economía
y Negocios U. de Chile Magister en Ingeniería
Industrial, Universidad de Santiago
Magister en Control y Gestión de la Calidad FUE España
Methodological Approach to Formulate Production and
Operations Strategies in the SMES Using the ANP
Methodology
17:30 – 18:00
Plenario y Cierre Congreso primer día
246
Miércoles 13 DE DICIEMBRE
9:00 - 10:00
Inscripción
Café de Bienvenida
Horario
Expositor
Temática
10:00 - 10:10
Sr. Juan Ignacio Carvallo, Vicerrector Sede Santiago
Palabras de Bienvenida a las autoridades y asistentes al
Congreso
10:10 – 10:30
Sr. Antonio Sala, Director
Ejecutivo, Fundación Centro de Estudios Africano FUCEA
Cónsul Honorario de Mozambique en Chile
Consultor Senior Internacional
Programas de Cooperación
comercial y educación Chile- Mozambique
10:30 - 11:00
Sr. Andrés Zahler, Phd. Public
Policy, Harvard University MPAID, Public Policy, Economics,
Public Management Master Applied Macroeconomics,
PUC MC Summer Program Economics
Instructor Harvard Kennedy School of
Government Head of Innovation division,
Ministerio de Economia de chile Consultant, World Bank, Research
Department
Impacto de los obstáculos al conocimiento en la innovación
de las empresas Chilenas
Competencia, crecimiento y productividad y su impacto en
la empresa chilena
11:00– 11:30
Srta. Carolina Cuevas, Líder en
sustentabilidad, Fundación Chile
Presentación Proyecto BRILLA, enmarcado en el programa de innovación abierta que busca fortalecer el ecosistema de la
industria y aumentar la captura de valor.
247
11:30 – 12:00
Sr. David Díaz S. Phd. In Business
Intelligence, Universirty of Manchester Business School,
Manchester, Inglaterra Magister en Finanzas, Universidad
de Chile Miembro Comité Académico
Congreso BALAS 2017. Académico Departamento de Administración, Facultad de
Economía y Negocios, U. de Chile
Compromiso del y para con el cliente en un mundo BIG DATA
12:00 – 12:30
Sr. Pablo Ruiz, Magister en
Gestión Empresarial, UTFSM Magister of Business
Administration, Universitat de Lleida, España
Gerente General Marble Group
Hiper – innovación y modelos
de negocios: acelerando crecimiento sustentable en
organizaciones
12:30 – 13:00
Sr. Alfred Melamed, Master of
Economics Science and Renewable Energy, Representante
del Austria Wirtschaftsservice Senior Project manager
Guarantees
Financing of SME’s Guarantee
schemes in Europe & The Austria Example
13:00 – 13:00
Sr. Iván González M., Master of Business Administración (MBA)
PUC
Innovación tecnológica en la
industria bancaria
13:30 – 15.00
RECESO
SUGERENCIAS DE RESTAURANTS (VER ANEXO, SON DE CARGO DEL ASISTENTE)
15:00 – 15:30
Sr. Jorge Daniel Dupré C. Ingeniero Civil Industrial FCFM, U.
de Chile Diplomado en Innovación y
Premiación mejor StartUP nacional proyecto financiado
por CORFO, Innovación en Blokchain de Ethereum.
248
Emprendimiento PUC Gerente Comercial, CRYPTOMKT
La compañía más disruptiva del Fintech Awards Latam 2017
15:30 – 16:00
Sr. Gino Elgueta C. Magister en
Gestión y Dirección de empresas (MBA) U. de Chile
Jefe Departamento Control de Gestión, VP Seguridad LATAM.
Desafíos del control de gestión en la Industria Aeronáutica
16:00 – 16:30
CAFÉ
16:30 – 17:00
Sr. Pedro Hidalgo C. Magister of Science in Business, University of
Kansas, USA Miembro del comité editorial de
la Revista Economía y Administración, Facultad de
Economía y Negocios, U. de Chile Miembro del círculo de Marketing
ICARE Miembro del Effie Marketing Hall of Fame /Big/MKT Best , CONEP
Retos del Marketing en un ambiente de negocios
turbulento
17:00 – 17:30
Srta. Pamela Correa.,
Responsable del Soporte Integral, para los productos FOGAIN - FOGAPE e Instituciones de
Garantías Reciprocas.
El sistema cooperativo
orientado a la micro y pequeña empresa, modelo Coopeuch
17:30 – 18:00
Sr. Rodrigo Gallegos ., Harvard
University, Jhon F. Kennedy School of Government, Taxation,
Magister of Business Administration MBA, Tecnológico
de Monterrey
Ventajas y Desventajas de la doble tributación para
empresas que se inician.
18:00
Plenario y Cierre Final del Congreso
INACAP es un sistema integrado de Educación Superior, constituidopor la Univers idad Tecnológica de Chile INACAP, el InstitutoProfesional INACAP y el Centro de Formación Técnica INACAP, quecomparten una Misión y Valores Institucionales.
El Sistema Integrado de Educación Superior INACAP y su OrganismoTécnico de Capacitación INACAP están presentes, a través de sus26 Sedes, en las 15 regiones del país.
INACAP es una corporación de derecho privado, s in �nes delucro. Su Consejo Directivo está integrado por miembros elegidospor la Confederación de la Producción y del Comercio (CPC), laCorporación Nacional Privada de Desarrollo Social (CNPDS) y elServicio de Cooperación Técnica (SERCOTEC), �lial de CORFO.