¿Qué Son las Acciones Para Superdotados?

Acciones Para Superdotados

Las acciones para superdotados son acciones entregadas por una persona o entidad a otra persona o entidad. Las acciones para superdotados no incluyen las acciones que se recibieron de un cónyuge o las acciones recibidas a través de una herencia de un descendiente.

Comprensión de las Acciones Para Superdotados

Las acciones para superdotados ofrecen algunas ventajas fiscales potenciales. Las acciones de obsequio se pueden ejecutar legalmente como una estrategia de transferencia de ingresos para obtener beneficios fiscales. A efectos fiscales, el costo de las acciones es el costo del donante original al comprar los valores.

Los impuestos sobre las ganancias de capital deberán pagarse con base en el monto de la compra original si el valor de las acciones excede los límites para los obsequios no tributables. Para 2020 y 2021, el Servicio de Impuestos Internos (IRS) estipula que el valor máximo de las acciones que puede regalar a otra persona sin informar la donación o incurrir en impuestos sobre ella es de $ 15,000. La base del costo para gravar una acción superdotada depende de su valor razonable en el momento de la venta. 

Cuidar de antemano los detalles de este obsequio en acciones también puede ayudar a evitar una situación en la que esas acciones se encuentren entre los activos que podrían quedar inmovilizados en una sucesión, al menos en la mayoría de los estados. 

Proceso de Transferencia de Acciones Para Superdotados

El proceso exacto involucrado en la transferencia de acciones a otra parte como regalo dependerá de las circunstancias específicas, pero generalmente es bastante simple y directo. Para una transferencia inmediata de acciones mantenidas en una cuenta de corretaje, es posible que simplemente deba completar un formulario que cambia el nombre en el título de propiedad de esas acciones.

Si la donación es una estrategia de planificación patrimonial y desea organizar una transferencia que entrará en vigencia después de su muerte, debe completar un acuerdo de transferencia en caso de muerte (TOD). La persona nombrada como beneficiario designado en el acuerdo TOD no tiene reclamos ni derechos sobre esas acciones mientras usted esté vivo. Hasta el momento de su muerte, usted continúa siendo el propietario legal de esas acciones y puede venderlas, cerrar la cuenta o cambiar la documentación para nombrar a otra persona como el beneficiario.

Dependiendo de las políticas de su firma de corretaje, es posible que también pueda nombrar un beneficiario alternativo. Si posee las acciones con otra persona, como su cónyuge, el acuerdo DOT generalmente solo se aplicaría una vez que ambos propietarios de la cuenta conjunta hayan fallecido.

Este proceso TOD es similar a un proceso pagadero al fallecimiento (POD) que se usa con cuentas bancarias. Establecer este acuerdo con anticipación hará que sea mucho más fácil para el destinatario previsto tomar posesión de las acciones rápidamente después de su muerte.

Ejemplo de Acciones Para Superdotados

La contabilización de los pasivos fiscales correspondientes a una acción superdotada varía según el precio de la acción y el período de tenencia. Como ejemplo, considere el siguiente escenario. Suponga que su padre compra una acción por $ 25 y decide regalársela cuando su precio sea de $ 15. La base del costo para sus obligaciones tributarias es de $ 15 por acción si decide vender las acciones cuando bajan de $ 15.

Por ejemplo, si el precio de la acción baja a $ 10, entonces tendría que pagar impuestos sobre una pérdida de capital de $ 5. Sin embargo, si el precio de la acción se aprecia en $ 35 durante el tiempo de su tenencia, entonces tendrá que pagar impuestos sobre una ganancia de capital de $ 10, y el precio de costo original de su padre se convierte en la base de costo para su obligación tributaria.

Conclusiones Clave

  • Las acciones para superdotados están separadas de las herencias y las recibidas de un cónyuge, y generalmente incluyen acciones entregadas por una persona o entidad a otra persona o entidad.
  • El principal beneficio de las acciones para superdotados son los impuestos más bajos debido a las estrategias de transferencia de ingresos. Dicho esto, los cálculos de impuestos para las acciones superdotados pueden ser un asunto complicado.
  • Las acciones para superdotados se pueden transferir mediante una cuenta de corretaje o mediante una estrategia de planificación patrimonial que implica completar un acuerdo de transferencia en caso de muerte.
  • La base del costo para gravar las acciones superdotadas depende de su valor justo en el momento de la venta.
  • El Servicio de Impuestos Internos (IRS) impone límites al valor de las acciones que se pueden regalar sin tener que informar o gravar.

Artículos Relacionados

Lo siento, no se han encontrado publicaciones.

Filosofía de la Tecnología. Todo lo Que Debes Saber

Filosofía de la Tecnología

Si la filosofía es el intento de «comprender cómo las cosas en el sentido más amplio posible del término se unen en el sentido más amplio posible del término»; como dijo Sellars (1962), la filosofía no debería ignorar la tecnología. Es en gran parte gracias a la filosofía de la tecnología que la sociedad contemporánea se mantiene unida. 

Es muy importante no solo como fuerza económica sino también como fuerza cultural. De hecho, durante los dos últimos siglos, cuando emergió gradualmente como una disciplina; la filosofía de la tecnología se ha preocupado principalmente por el significado de la tecnología y su impacto en la sociedad y la cultura; más que en la tecnología en sí. 

Mitcham (1994) llama a este tipo de filosofía de la tecnología “filosofía de la tecnología de las humanidades” porque acepta “la primacía de las humanidades sobre las tecnologías” y es continua con la perspectiva general de las humanidades (y algunas de las ciencias sociales). 

Solo recientemente se ha desarrollado una rama de la filosofía de la tecnología que se ocupa de la tecnología en sí y que tiene como objetivo comprender tanto la práctica de diseñar y crear artefactos (en un sentido amplio, incluidos los procesos y sistemas artificiales) como la naturaleza de las cosas así creadas.

Esta última rama de la filosofía de la tecnología busca la continuidad con la filosofía de la ciencia y con varios otros campos de la tradición analítica en la filosofía moderna; como la filosofía de la acción y la toma de decisiones, más que con las humanidades y las ciencias sociales.

La entrada comienza con una breve descripción histórica; luego continúa con una presentación de los temas en los que se centra la filosofía analítica moderna de la tecnología. A esto le sigue una discusión de los aspectos sociales y éticos de la tecnología; en la que se abordan algunas de las preocupaciones de la filosofía de la tecnología de las humanidades. 

Esta doble presentación toma en consideración el desarrollo de la tecnología como el resultado de un proceso que se origina dentro y está guiado por la práctica de la ingeniería; por estándares sobre los cuales solo se ejerce un control social limitado; así como las consecuencias para la sociedad de la implementación de la tecnología; que resultan de procesos sobre los que sólo se puede ejercer un control limitado.

1. Acontecimientos Históricos Sobre la Filosofía de la Tecnología

1.1 Los Griegos

La reflexión filosófica sobre la tecnología es tan antigua como la filosofía misma. Nuestro testimonio más antiguo es de la antigua Grecia. Hay cuatro temas destacados. Un tema temprano es la tesis de que la tecnología aprende de la naturaleza o la imita (Platón, Leyes X 899a y siguientes). 

Según Demócrito, por ejemplo, la construcción de viviendas y el tejido se inventaron por primera vez imitando a golondrinas y arañas que construían sus nidos y redes, respectivamente. Quizás la fuente más antigua que existe sobre el papel ejemplar de la naturaleza es Heráclito. Aristóteles se refirió a esta tradición repitiendo los ejemplos de Demócrito; pero no sostuvo que la tecnología solo puede imitar a la naturaleza: “generalmente technè en algunos casos completa lo que la naturaleza no puede llevar a su fin; y en otros imita la naturaleza” ( Physics II.8, 199a15; ver también Physics II.2, y ver Schummer 2001 y la entrada de esta enciclopedia sobre episteme y techne para discusión).

Un segundo tema es la tesis de que existe una distinción ontológica fundamental entre las cosas naturales y los artefactos. Según Aristóteles, los primeros tienen sus principios de generación y movimiento en su interior, mientras que los segundos; en la medida en que son artefactos, son generados solo por causas externas, es decir, objetivos y formas humanas en el alma humana. 

Los productos naturales (animales y sus partes, plantas y los cuatro elementos) se mueven, crecen, cambian y se reproducen por causas finales internas; están impulsados ​​por propósitos de la naturaleza. Los artefactos, por otro lado, no pueden reproducirse. Sin el cuidado y la intervención humanos, desaparecen después de un tiempo al perder sus formas artificiales y descomponerse en materiales (naturales). Por ejemplo, si se entierra un lecho de madera, se descompone en tierra o vuelve a su naturaleza botánica al producir un brote.

La tesis de que existe una diferencia fundamental entre los productos artificiales y las sustancias naturales ha tenido una influencia duradera. En la Edad Media, Avicena criticó la alquimia sobre la base de que nunca puede producir sustancias «genuinas». Incluso hoy en día, algunos todavía sostienen que existe una diferencia entre, por ejemplo, la vitamina C natural y la sintética.

La doctrina de Aristóteles de las cuatro causas (material, formal, eficiente y final) puede considerarse como una tercera contribución temprana a la filosofía de la tecnología. Aristóteles explicó esta doctrina refiriéndose a artefactos técnicos como casas y estatuas. Las cuatro causas todavía están muy presentes en las discusiones modernas relacionadas con la metafísica de los artefactos. 

Las discusiones sobre la noción de función, por ejemplo; se centran en su carácter teleológico o «final» inherente y las dificultades que esto presenta para su uso en biología. Y el caso notorio del barco de Teseo fue introducido en la filosofía moderna por Hobbes como mostrando un conflicto entre la unidad de materia y la unidad de forma como principios de individuación. Muchos consideran que este conflicto es característico de los artefactos. David Wiggins lo considera incluso como la característica definitoria de los artefactos.

Un cuarto punto que merece ser mencionado es el extenso empleo de imágenes tecnológicas por Platón y Aristóteles. En su Timeo, Platón describió el mundo como obra de un artesano, el Demiurgo. Su relato de los detalles de la creación está lleno de imágenes extraídas de la carpintería, el tejido, la cerámica, la metalurgia y la tecnología agrícola. Aristóteles utilizó comparaciones extraídas de las artes y oficios para ilustrar cómo las causas finales actúan en los procesos naturales. 

A pesar de su apreciación negativa de la vida de los artesanos; a quienes consideraban demasiado ocupados por las preocupaciones de su profesión y la necesidad de ganarse la vida para calificar como individuos libres; tanto Platón como Aristóteles encontraron la imaginería tecnológica indispensable para expresar su creencia en el diseño racional del universo.

1.2 Desarrollos posteriores; Filosofía de la tecnología de las humanidades

Aunque hubo mucho progreso tecnológico en el Imperio Romano y durante la Edad Media, la reflexión filosófica sobre la tecnología no creció al mismo ritmo. Obras completas como De architectura de Vitruvio (siglo I a.c.) y De re metallica de Agricola (1556) prestaron mucha atención a los aspectos prácticos de la tecnología pero poca a la filosofía.

En el ámbito de la filosofía escolástica, surgió una apreciación emergente por las artes mecánicas. Por lo general, se consideraba que habían nacido y se habían limitado a la imitación de la naturaleza. Este punto de vista fue desafiado cuando se introdujo la alquimia en el Occidente latino a mediados del siglo XII.

Algunos escritores alquímicos como Roger Bacon estaban dispuestos a argumentar que el arte humano, incluso si se aprende imitando procesos naturales; podría reproducir con éxito productos naturales o incluso superarlos (Newman 2004).

El resultado fue una filosofía de la tecnología en la que el arte humano se elevó a un nivel de apreciación que no se encontró en otros escritos hasta el Renacimiento. Sin embargo, las últimas tres décadas del siglo XIII fueron testigos de una actitud cada vez más hostil de las autoridades religiosas hacia la alquimia que culminó finalmente en la denuncia. Contra alchymistas, escrito por el inquisidor Nicholas Eymeric en 1396 (Newman 2004).

El Renacimiento llevó a una mayor apreciación de los seres humanos y sus esfuerzos creativos, incluida la tecnología. Como resultado, aumentó la reflexión filosófica sobre la tecnología y su impacto en la sociedad. Francis Bacon es generalmente considerado como el primer autor moderno en proponer tal reflexión. Su opinión, expresada en su fantasía Nueva Atlántida (1627), fue abrumadoramente positiva. Esta actitud positiva duró hasta bien entrado el siglo XIX, incorporando el primer medio siglo de la revolución industrial.

Por ejemplo, Karl Marx no condenó la máquina de vapor o la hilandería por los vicios del modo de producción burgués; creía que la innovación tecnológica en curso eran pasos necesarios hacia las etapas más felices del socialismo y el comunismo del futuro. Un punto de inflexión en la apreciación de la tecnología como fenómeno sociocultural está marcado por Erewhon (1872) de Samuel Butler; escrito bajo la influencia de la Revolución Industrial, y El origen de las especies de Darwin (1859). El libro de Butler narra un país ficticio donde todas las máquinas están prohibidas y la posesión de una máquina o el intento de construir una es un crimen capital. 

La gente de este país se había convencido con el argumento de que es probable que las mejoras técnicas en curso lleven a una «raza» de máquinas que reemplazará a la humanidad como la especie dominante en la tierra. Durante el último cuarto del siglo XIX y la mayor parte del siglo XX predominó una actitud crítica en la reflexión filosófica sobre la tecnología. Los representantes de esta actitud eran, abrumadoramente, educados en humanidades o ciencias sociales y prácticamente no tenían conocimientos de primera mano sobre la práctica de la ingeniería. 

Mientras que Bacon escribió extensamente sobre el método de la ciencia y realizó experimentos físicos él mismo; Butler, como clérigo, carecía de ese conocimiento de primera mano. Ernst Kapp, quien fue el primero en utilizar el término ‘filosofía de la tecnología’ en su libro Eine Philosophie der Technik, fue filólogo e historiador. La mayoría de los autores que escribieron críticamente sobre la tecnología y su papel sociocultural durante el siglo XX fueron filósofos de perspectiva general; como Martin Heidegger, Hans Jonas, Arnold Gehlen, Günther Anders y Andrew Feenberg. 

Otros tenían formación en alguna de las otras humanidades o en ciencias sociales; como la crítica literaria y la investigación social en el caso de Lewis Mumford (1934); derecho en el caso de Jacques Ellul (1954); ciencia política en el caso de Langdon Winner (1977, 1980, 1983); y estudios literarios en el caso de Albert Borgmann (1984). La forma de filosofía de la tecnología constituida por los escritos de estos y otros ha sido denominada por Carl Mitcham (1994) “filosofía de la tecnología de las humanidades”.

Los filósofos de la tecnología de las humanidades tienden a dar por sentado el fenómeno de la tecnología misma; lo tratan como una «caja negra», un fenómeno dado, unitario, monolítico e ineludible. Su interés no es tanto analizar y comprender este fenómeno en sí mismo; sino captar sus relaciones con la moralidad (Jonas, Gehlen), la política (Winner), la estructura de la sociedad (Mumford), la cultura humana (Ellul), la condición humana (Hannah Arendt), o metafísica (Heidegger).

En esto, estos filósofos son casi todos abiertamente críticos de la tecnología; considerando todo, tienden a tener un juicio negativo sobre la forma en que la tecnología ha afectado a la sociedad y la cultura humana; o al menos señalan para consideración los efectos negativos de la tecnología en los seres humanos. 

Esto no significa necesariamente que la tecnología en sí sea señalada como la principal causa de estos desarrollos negativos. En el caso de Heidegger, en particular, la posición suprema de la tecnología en la sociedad moderna es más bien un síntoma de algo más fundamental; a saber, una actitud equivocada hacia el Ser que ha ido en aumento durante casi 25 siglos. 

Por tanto, es cuestionable que Heidegger deba ser considerado como un filósofo de la tecnología; aunque dentro de la visión tradicional se le considera uno de los más importantes. Lo mismo podría decirse de Arendt, en particular su discusión sobre la tecnología; es decir, una actitud equivocada hacia el Ser que ha ido en aumento durante casi 25 siglos. 

Sin duda, el trabajo de estas figuras fundadoras de la filosofía de la tecnología de las humanidades ha sido llevado más allá por una segunda y tercera generación de académicos; pero que, al hacerlo, han adoptado un enfoque más. Una visión neutral más que negativa general de la tecnología y su significado para la vida y la cultura humana. Ejemplos notables son Ihde (1979, 1993) y Verbeek (2000).

En su desarrollo, la filosofía de la tecnología de las humanidades sigue estando influenciada no tanto por los avances en la filosofía; sino por los avances en las ciencias sociales y las humanidades. Si bien, por ejemplo, Ihde y quienes toman su punto de partida con él; posicionan su trabajo como fenomenólogo o posfenomenólogo, no parece haber mucho interés ni por el pasado ni por el presente de esta noción difusa de la filosofía; y en particular no hay mucho interés en la pregunta nada fácil de hasta qué punto se puede considerar a Heidegger un fenomenólogo. 

De particular importancia ha sido el surgimiento de los ‘Estudios de Ciencia y Tecnología’ (CTS) en la década de 1980, que estudia desde una amplia perspectiva científico-social cómo los estudios sociales, políticos, y los valores culturales afectan la investigación científica y la innovación tecnológica, y cómo estos a su vez afectan a la sociedad, la política y la cultura. Discutidos autores de la filosofía de la tecnología de las humanidades sobre ‘Aspectos éticos y sociales de la tecnología’; pero no presenta por separado y en detalle la amplia variedad de puntos de vista existentes en este campo.

1.3 Una ambigüedad básica en el significado de la filosofía de la tecnología

Mitcham contrasta la ‘filosofía de la tecnología de las humanidades’ con la ‘filosofía de la tecnología de la ingeniería’; donde esta última se refiere a las visiones filosóficas desarrolladas por ingenieros o tecnólogos como “intentos de elaborar una filosofía tecnológica” (1994). Sin embargo, Mitcham analiza solo un puñado de personas como filósofos de la tecnología en ingeniería: Ernst Kapp, Peter Engelmeier, Friedrich Dessauer, y mucho más brevemente Jacques Lafitte, Gilbert Simondon, Hendrik van Riessen, Juan David García Bacca, R. Buckminster Fuller y Mario Bunge. 

Sin embargo, la etiqueta plantea serias preguntas: varios de ellos difícilmente se clasifican como «ingenieros o tecnólogos» y tampoco está muy claro cómo debe entenderse la noción de «una filosofía tecnológica». Como filósofos, estos autores parecen ser figuras bastante aisladas; cuyo trabajo muestra poca superposición y que parecen compartir principalmente la ausencia de una «relación de trabajo» con las disciplinas filosóficas establecidas. 

No está tan claro qué tipo de preguntas e inquietudes subyacen en la noción de «filosofía de la tecnología de la ingeniería». Un papel más importante para la filosofía sistemática podría acercarla bastante a algunos ejemplos de filosofía de la tecnología de las humanidades; por ejemplo, el trabajo de Jacques Ellul, donde los análisis serían bastante similares y las diferencias restantes serían de actitud o apreciación.

En la siguiente sección discutimos con más detalle una forma de filosofía de la tecnología que consideramos que ocupa, actualmente, la posición de alternativa a la filosofía de la tecnología de las humanidades. Surgió en la década de 1960 y ganó impulso en los últimos quince o veinte años. Esta forma de filosofía de la tecnología, que puede llamarse «analítica»; no se ocupa principalmente de las relaciones entre la tecnología y la sociedad, sino de la tecnología misma.

Expresamente, no considera la tecnología como una «caja negra», sino como un fenómeno que debe estudiarse en detalle. Considera la tecnología tal vez no en su totalidad como una práctica, sino como algo basado en una práctica, básicamente la práctica de la ingeniería. Analiza esta práctica, sus objetivos, sus conceptos y sus métodos, y relaciona sus hallazgos con varios temas de la filosofía.

Al enfocarse en la tecnología como una práctica sustentada por los ingenieros, similar a la forma en que la filosofía de la ciencia se enfoca en la práctica de la ciencia sustentada por los científicos; podría pensarse que la filosofía analítica de la tecnología equivale a la filosofía de la ingeniería. De hecho, muchas de las cuestiones relacionadas con el diseño, que se discuten a continuación podrían señalarse como el tema principal de la filosofía de la ingeniería. Sin embargo, los problemas metafísicos discutidos no pudieron; y la filosofía analítica de la tecnología es, por lo tanto, significativamente más amplia que la filosofía de la ingeniería. 

El mismo título de Filosofía de la Tecnología y Ciencias de la Ingeniería, una amplia descripción general actualizada, que contiene contribuciones a todos los temas tratados en la siguiente sección; expresa la opinión de que la tecnología y la ingeniería no coinciden. Lo que no quiere decir, sin embargo, que el libro ofrezca una concepción clara de lo que hace que la tecnología sea diferente de la ingeniería, o más que la ingeniería. 

De hecho, la existencia de la filosofía de la tecnología de las humanidades y la filosofía analítica de la tecnología, una al lado de la otra, refleja una ambigüedad básica en la noción de tecnología que el trabajo filosófico que se ha venido realizando no ha logrado esclarecer.

Se puede decir que la tecnología tiene dos ‘núcleos’ o ‘dimensiones’, que pueden denominarse instrumentalidad y productividad. La instrumentalidad cubre la totalidad de los esfuerzos humanos para controlar sus vidas y sus entornos interfiriendo con el mundo de manera instrumental; usando las cosas de una manera inteligente y con un propósito.

La productividad cubre la totalidad de los esfuerzos humanos para traer cosas nuevas a la existencia que puedan hacer ciertas cosas de una manera controlada e inteligente. Para el estudio de la instrumentalidad; sin embargo, en principio es irrelevante si las cosas que se utilizan para controlar nuestras vidas y entornos las hemos hecho nosotros primero; 

Si de alguna manera pudiéramos confiar en que los objetos naturales siempre estarán disponibles para nuestros propósitos; el análisis de la instrumentalidad y sus consecuencias sobre cómo vivimos nuestras vidas no necesariamente se verían afectados. Asimismo, para el análisis de lo que implica la fabricación de artefactos; y cómo ha de entenderse la noción de artefacto y de algo nuevo que se ha creado; es en gran medida irrelevante cómo la vida humana, la cultura y la sociedad cambian como resultado de los artefactos que de hecho se producen. 

Claramente, la filosofía de la tecnología de las humanidades hasta ahora se ha sentido más atraída por el núcleo de instrumentalidad; mientras que la filosofía analítica de la tecnología se ha decantado principalmente por el núcleo de productividad. Pero la tecnología como uno de los fenómenos básicos de la sociedad moderna, si no el más básico, está claramente constituida por los procesos que se centran en ambos núcleos y los involucran. 

Sin embargo, ha resultado difícil para llegar a un enfoque global en el que la interacción entre estas dos dimensiones de la tecnología se aborde adecuadamente; sin duda en parte debido a las grandes diferencias en la orientación filosófica y la metodología asociadas con las dos tradiciones y sus focos separados.

Mejorar esta situación es posiblemente el desafío más urgente al que se enfrenta el campo de la filosofía de la tecnología en su conjunto; ya que la continuación de las dos orientaciones que llevan vidas separadas amenaza su unidad y coherencia como disciplina en primer lugar. A pesar de su centralidad y urgencia, la ambigüedad señalada aquí difícilmente parece ser confrontada directamente en la literatura. Lawson (2008, 2017) y Franssen y Koller (2016) lo abordan. 

2. Filosofía de la Tecnología: Filosofía Analítica

2.1 Introducción: Filosofía de la tecnología y Filosofía de la ciencia como filosofías de las prácticas

Puede sorprender a los nuevos en el tema que los campos de la filosofía de la ciencia y la filosofía de la tecnología muestren tan grandes diferencias, dado que pocas prácticas en nuestra sociedad están tan estrechamente relacionadas como la ciencia y la tecnología. 

En la actualidad, la ciencia experimental depende fundamentalmente de la tecnología para la realización de sus sistemas de investigación y para la recopilación y análisis de datos. Los fenómenos que la ciencia moderna busca estudiar nunca podrían descubrirse sin producirlos a través de la tecnología.

La investigación teórica dentro de la tecnología ha llegado a ser a menudo indistinguible de la investigación teórica en ciencia; lo que hace que la ciencia de la ingeniería sea en gran medida continua con la ciencia «ordinaria» o «pura». Se trata de un desarrollo relativamente reciente, que se inició a mediados del siglo XIX; y es responsable de grandes diferencias entre la tecnología moderna y las técnicas artesanales tradicionales. 

La formación educativa que reciben los aspirantes a científicos e ingenieros comienza siendo en gran medida idéntica y solo gradualmente se desvía hacia un plan de estudios de ciencias o ingeniería. 

Desde la revolución científica del siglo XVII, caracterizada por sus dos grandes innovaciones, el método experimental y la articulación matemática de las teorías científicas. La reflexión filosófica sobre la ciencia se ha centrado en el método por el cual se genera el conocimiento científico; en las razones para pensar que las teorías científicas son verdaderas, o aproximadamente verdaderas; y en la naturaleza de la evidencia y las razones para aceptar una teoría y rechazar otra.

Rara vez los filósofos de la ciencia han planteado preguntas que no tuvieran como objetivo principal a la comunidad de científicos, sus preocupaciones, objetivos, intuiciones, argumentos y elecciones. Por el contrario, solo recientemente la filosofía de la tecnología ha descubierto la comunidad de ingenieros.

Podría afirmarse que corresponde a la filosofía de la tecnología, y no a la filosofía de la ciencia, centrarse en primer lugar en el impacto de la tecnología (y con ella la ciencia) sobre la sociedad y la cultura; porque la ciencia sólo afecta a la sociedad a través de la tecnología. Sin embargo, esto no funcionará. 

Desde el comienzo de la revolución científica, la ciencia afectó fundamental y directamente la cultura y el pensamiento humanos, no con un desvío a través de la tecnología, y lo mismo es cierto para desarrollos posteriores como la relatividad, la física atómica y la mecánica cuántica, la teoría de la evolución, la genética, bioquímica y la visión del mundo científico cada vez más dominante en general.

Los filósofos de la ciencia dan de manera abrumadora la impresión de que dejan con gusto las preguntas que abordan los aspectos normativos, sociales y culturales de la ciencia a otras disciplinas filosóficas a estudios históricos. Sin embargo, hay excepciones y las cosas pueden estar cambiando; Philip Kitcher, por nombrar solo un destacado filósofo de la ciencia, ha escrito desde el año 2000, libros sobre la relación de la ciencia con la política, la ética y la religión (Kitcher 2001, 2011).

Existe una gran diferencia entre el desarrollo histórico de la tecnología moderna y la ciencia moderna que puede explicar, al menos en parte esta situación; es que la ciencia surgió en el siglo XVII, de la filosofía misma. Las respuestas que dieron Galileo, Huygens, Newton y otros, mediante las cuales iniciaron la alianza del empirismo y la descripción matemática que es tan característica de la ciencia moderna; fueron respuestas a preguntas que habían pertenecido al núcleo de la filosofía desde la antigüedad. La ciencia, por tanto, mantuvo la atención de los filósofos. 

La filosofía de la ciencia es una transformación de la epistemología a la luz del surgimiento de la ciencia. Las cuestiones fundamentales: la realidad de los átomos, el estado de causalidad y probabilidad, cuestiones de espacio y tiempo, la naturaleza del mundo cuántico, que se discutió tan animadamente a fines del siglo XIX y principios del XX; es una ilustración de esta estrecha relación entre científicos y filósofos. Nunca ha existido semejante intimidad entre esos mismos filósofos y tecnólogos; sus mundos todavía apenas se tocan. 

Sin duda, se puede argumentar que, en comparación con la continuidad existente entre la filosofía natural y la ciencia, existe una continuidad similar entre las cuestiones centrales de la filosofía que tienen que ver con la acción humana y la racionalidad práctica y la forma en que la tecnología aborda y sistematiza la solución de problemas prácticos. Investigar esta conexión puede, de hecho, considerarse un tema importante para la filosofía de la tecnología, y se dice más al respecto en las secciones. 

Significativamente, es solo el académico externo Ellul quien; a su manera idiosincrásica, ha reconocido en la tecnología la forma emergente única dominante de responder a todas las preguntas relativas a la acción humana, comparable a la ciencia como la única forma dominante de responder a todas las preguntas relativas al conocimiento humano. 

Pero Ellul no estaba tan interesado en investigar esta relación como en enfatizar y denunciar las consecuencias sociales y culturales tal como las veía. Es aún más importante señalar que la filosofía de la tecnología de las humanidades no puede diferenciarse de la filosofía analítica de la tecnología al afirmar que solo la primera está interesada en el entorno social de la tecnología. 

Hay estudios que tienen sus raíces en la filosofía analítica de la ciencia pero que abordan específicamente la relación de la tecnología con la sociedad y la cultura; e igualmente la relevancia de las relaciones sociales con las prácticas de la tecnología, sin adoptar una posición evaluativa con respecto a la tecnología.

2.2 La relación entre filosofía de la tecnología y ciencia

La estrecha relación entre las prácticas de la ciencia y la tecnología puede fácilmente ocultar las importantes diferencias entre las dos. La posición predominante de la ciencia en el campo de la visión filosófica hizo difícil para los filósofos reconocer que la tecnología merece una atención especial por involucrar cuestiones que no surgen en la ciencia. Este punto de vista resultante de esta falta de reconocimiento a menudo se presenta, tal vez de manera algo dramática; como una afirmación de que la tecnología es «meramente» ciencia aplicada.

El cuestionamiento de la relación entre ciencia y tecnología fue el tema central en una de las primeras discusiones entre los filósofos analíticos de la tecnología. En 1966, en un número especial de la revista Technology and Culture; Henryk Skolimowski argumentó que la tecnología es algo bastante diferente de la ciencia (Skolimowski 1966). 

Como él lo expresó, la ciencia se preocupa por lo que es, mientras que la tecnología se ocupa de lo que será. Unos años más tarde, en su conocido libro The Sciences of the Artificial (1969), Herbert Simon enfatizó esta importante distinción casi con las mismas palabras; afirmando que al científico le preocupa cómo son las cosas, pero al ingeniero cómo deberían ser las cosas. 

Si bien es difícil imaginar que los filósofos anteriores fueran ciegos a esta diferencia de orientación, su inclinación, en particular en la tradición del empirismo lógico, a ver el conocimiento como un sistema de enunciados puede haber llevado a la convicción de que en la tecnología ningún reclamo de conocimiento juega un papel que no se puede encontrar también en la ciencia. 

Por tanto, no se esperaba que el estudio de la tecnología planteara nuevos desafíos ni deparara sorpresas en relación con los intereses de la filosofía analítica. En contraste, Mario Bunge (1966) defendió la visión de que la tecnología es ciencia aplicada; pero de una manera sutil que hace justicia a las diferencias entre ciencia y tecnología. Bunge reconoce que la tecnología se trata de acción, pero una acción fuertemente sustentada por la teoría; eso es lo que distingue a la tecnología de las artes y oficios y la pone a la par de la ciencia. 

Según Bunge, las teorías en tecnología son de dos tipos: teorías sustantivas, que proporcionan conocimiento sobre el objeto de la acción, y teorías operativas, que se ocupan de la acción misma. Las teorías sustantivas de la tecnología son de hecho en gran parte aplicaciones de teorías científicas. Las teorías operativas, por el contrario, no están precedidas por teorías científicas sino que nacen de la propia investigación aplicada. 

Sin embargo, como afirma Bunge, las teorías operativas muestran una dependencia de la ciencia en el sentido de que en tales teorías el método de la ciencia se emplea. Esto incluye características como el modelado y la idealización, el uso de conceptos y abstracciones teóricos, y la modificación de teorías mediante la absorción de datos empíricos a través de la predicción y la retrodicción.

En respuesta a esta discusión, Ian Jarvie (1966) propuso como preguntas importantes para una filosofía de la tecnología cuál es el estado epistemológico de los enunciados tecnológicos y cómo se deben demarcar los enunciados tecnológicos de los enunciados científicos. 

Esto sugiere una investigación exhaustiva de las diversas formas de conocimiento que ocurren en cualquiera de las prácticas; en particular, dado que el conocimiento científico ya ha sido estudiado de manera tan extensa, de las formas de conocimiento que son características de la tecnología y que carecen, o tienen mucha menos prominencia, en Ciencias. 

Gilbert Ryle (1949) había introducido una distinción entre «saber eso» (conocimiento proposicional tradicional) y «saber cómo» (conocimiento no articulado e incluso imposible de articular) en un contexto diferente. Michael Polanyi adoptó la noción de «saber cómo» con el nombre de conocimiento tácito y la convirtió en una característica central de la tecnología (Polanyi 1958).

El estado actual de la discusión filosófica se presenta en la entrada de esta enciclopedia sobre saber cómo. Sin embargo, enfatizar demasiado el papel del conocimiento no articulado, de las «reglas empíricas», como se las llama a menudo; fácilmente subestima la importancia de los métodos racionales en la tecnología. 

Un énfasis en el conocimiento tácito también puede ser inadecuado para distinguir las prácticas de la ciencia y la tecnología porque el papel del conocimiento tácito en la ciencia bien puede ser más importante de lo que reconoce la filosofía actual de la ciencia; por ejemplo, para concluir relaciones causales sobre la base de datos empíricos. Este también fue un tema importante en los escritos de Thomas Kuhn sobre el cambio de teoría en la ciencia (Kuhn 1962).

2.3 La centralidad del diseño en la tecnología

Afirmar, con Skolimowski y Simon, que la tecnología trata sobre lo que debe ser más que sobre lo que es, puede servir para distinguirla de la ciencia; pero difícilmente hará comprensible por qué tanta reflexión filosófica sobre la tecnología ha tomado la forma de crítica sociocultural. La tecnología es un intento continuo de acercar el mundo a la forma en que uno desea que sea. Mientras que la ciencia tiene como objetivo comprender el mundo tal como es, la tecnología apunta a cambiar el mundo. 

Estas son abstracciones, por supuesto. Por un lado, ¿los deseos de quién con respecto a cómo debería ser el mundo se realizan en la tecnología? A diferencia de los científicos, que a menudo están motivados personalmente en sus intentos de describir y comprender el mundo; los ingenieros son vistos, en lo más mínimo por los propios ingenieros, como emprendedores de sus intentos de cambiar el mundo como un servicio al público.

Se considera que las ideas sobre lo que debe ser se originan fuera de la tecnología misma; los ingenieros entonces se encargan de realizar estas ideas. Este punto de vista es una fuente importante de la imagen ampliamente difundida de la tecnología como instrumental, como la entrega de instrumentos ordenados desde «otro lugar», como medio para fines especificados fuera de la ingeniería; una imagen que ha servido más para respaldar la afirmación de que la tecnología es neutral con respecto a los valores.

Sin embargo, esta visión implica una considerable distorsión de la realidad. Muchos ingenieros están intrínsecamente motivados para cambiar el mundo; en la entrega de ideas para la mejora son, por así decirlo, sus mejores clientes. Lo mismo ocurre con la mayoría de las empresas industriales, especialmente en una economía de mercado; donde la perspectiva de grandes beneficios es otro poderoso motivador. Como resultado, gran parte del desarrollo tecnológico está «impulsado por la tecnología».

Entender de dónde ‘viene’ la tecnología, qué impulsa el proceso de innovación, es importante no solo para aquellos que sienten curiosidad por comprender el fenómeno de la tecnología en sí, sino también para aquellos que están preocupados por su papel en la sociedad. La tecnología o la ingeniería como práctica se ocupan de la creación de artefactos y, lo que es más importante, de los servicios basados ​​en artefactos.

El proceso de diseño, el proceso estructurado que conduce hacia ese objetivo, forma el núcleo de la práctica de la tecnología. En la literatura de ingeniería, el proceso de diseño se representa comúnmente como consistente en una serie de pasos traslacionales. Al principio están las necesidades o deseos del cliente. 

En el primer paso, estos se traducen en una lista de requisitos funcionales; que luego definen la tarea de diseño que debe realizar un ingeniero o un equipo de ingenieros. Los requisitos funcionales especifican con la mayor precisión posible lo que debe poder hacer el dispositivo que se va a diseñar. Este paso es necesario porque los clientes suelen centrarse en solo una o dos funciones y no pueden articular los requisitos necesarios para admitir la funcionalidad que desean. 

En el segundo paso, los requisitos funcionales se traducen en especificaciones de diseño, que son los parámetros físicos exactos de los componentes cruciales mediante los cuales se cumplirán los requisitos funcionales. Los parámetros de diseño elegidos para satisfacer estos requisitos se combinan y se hacen más precisos de manera que un plano de los resultados del dispositivo. 

El plano contiene todos los detalles que deben conocerse para que pueda tener lugar el paso final del proceso de fabricación del dispositivo. Es tentador considerar el plano como el resultado final de un proceso de diseño, en lugar de que el resultado sea una copia terminada. Sin embargo, las copias reales de un dispositivo son cruciales para la creación de prototipos y las pruebas.

La creación de prototipos y las pruebas presuponen que la secuencia de pasos que componen el proceso de diseño puede contener y a menudo contendrá iteraciones; lo que lleva a revisiones de los parámetros de diseño y/o los requisitos funcionales. Aunque, ciertamente para los artículos producidos en masa, la fabricación de un producto para su entrega a sus clientes o al mercado se produce después del cierre de la fase de diseño, el proceso de fabricación a menudo se refleja en los requisitos funcionales de un dispositivo. Por ejemplo, al imponer restricciones al número de componentes diferentes de los que consta el dispositivo. 

La complejidad de un dispositivo afectará la dificultad de mantenerlo o repararlo, y la facilidad de mantenimiento o los bajos costos de reparación suelen ser requisitos funcionales. Un avance moderno importante es que ahora se considera que el ciclo de vida completo de un artefacto es la preocupación del ingeniero de diseño; hasta las etapas finales del reciclaje y eliminación de sus componentes y materiales, y los requisitos funcionales de cualquier dispositivo deben reflejar esto.

Desde este punto de vista, ni un plano ni un prototipo pueden considerarse el producto final del diseño de ingeniería. La complejidad de un dispositivo afectará la dificultad de mantenerlo o repararlo, y la facilidad de mantenimiento o los bajos costos de reparación suelen ser requisitos funcionales. 

Artículos Relacionados

Lo siento, no se han encontrado publicaciones.

Tasa de Financiación Garantizada a un Día (SOFR)

SOFR

¿Qué es la Tasa de Financiación Garantizada a un Día (SOFR)?

La tasa de financiación garantizada a un día (SOFR) es una tasa de interés de referencia para los derivados y préstamos denominados en dólares que reemplaza la tasa de oferta interbancaria de Londres (LIBOR). Los swaps de tasas de interés sobre más de $ 80 billones en deuda nocional se cambiarán al SOFR en octubre de 2020. Se espera que esta transición aumente la liquidez a largo plazo; pero también resulte en una volatilidad sustancial en la negociación de derivados a corto plazo.

Los swaps de tasa de interés son acuerdos en los que las partes intercambian pagos de interés de tasa fija por pagos de interés de tasa variable. En un swap «vainilla», una de las partes acuerda pagar una tasa de interés fija; y, a cambio, la parte receptora acuerda pagar una tasa de interés flotante basada en la tasa de financiación garantizada a un día (SOFR); la tasa puede ser mayor o menor que SOFR, según la calificación crediticia de la parte y las condiciones de las tasas de interés.

En este caso, el pagador se beneficia cuando suben las tasas de interés; porque el valor de los pagos entrantes basados ​​en la tasa de financiamiento garantizado a un día (SOFR) es ahora más alto; aunque el costo de los pagos de tasa fija a la contraparte sigue siendo el mismo. Lo inverso ocurre cuando las tasas bajan.

Historial de la Tasa de Financiación Garantizada a un Día (SOFR)

Desde su inicio a mediados de la década de 1980; la LIBOR ha sido la tasa de interés a la que los inversores y los bancos fijan sus acuerdos de crédito. Compuesto por cinco monedas y siete vencimientos, el LIBOR se determina calculando la tasa de interés promedio a la que los principales bancos mundiales se piden prestado entre sí. Las cinco monedas son el dólar estadounidense (USD), el euro (EUR), la libra esterlina (GBP), el yen japonés (JPY) y el franco suizo (CHF); y el LIBOR más comúnmente cotizado es el tipo de cambio del dólar estadounidense a tres meses, generalmente conocida como la tasa LIBOR actual.

Tras la crisis financiera de 2008, los reguladores se mostraron cautelosos ante la dependencia excesiva de ese índice de referencia en particular. Por un lado, el LIBOR se basa en gran medida en estimaciones de los bancos globales encuestados y no necesariamente en transacciones reales. La desventaja de dar a los bancos esa libertad se hizo evidente en 2012 cuando se reveló que más de una docena de instituciones financieras manipularon sus datos para obtener mayores ganancias de los productos derivados basados ​​en LIBOR.

Además, las regulaciones bancarias después de la crisis financiera significaron que hubo menos préstamos interbancarios; lo que llevó a algunos funcionarios a expresar su preocupación de que el volumen limitado de actividad comercial hiciera que la LIBOR fuera aún menos confiable. Finalmente, el regulador británico que compila las tasas LIBOR dijo que ya no exigirá a los bancos que presenten información sobre préstamos interbancarios después de 2021. Esta actualización hizo que los países desarrollados de todo el mundo lucharan por encontrar una tasa de referencia alternativa que eventualmente pudiera reemplazarla.

En 2017, la Reserva Federal (Fed) respondió reuniendo el Comité de Tasas de Referencia Alternativas, integrado por varios bancos grandes; para seleccionar una tasa de referencia alternativa para los Estados Unidos. El comité eligió la tasa de financiamiento garantizada a un día (SOFR), una tasa a un día; como el nuevo punto de referencia para los contratos denominados en dólares.

Tasa de Financiación Garantizada a un Día (SOFR) Vrs LIBOR

A diferencia de la LIBOR, existe una amplia negociación en el mercado de repos del Tesoro; aproximadamente 1.500 veces la de los préstamos interbancarios a partir de 2018; lo que teóricamente lo convierte en un indicador más preciso de los costos de los préstamos. Además, la tasa de financiación garantizada a un día (SOFR) se basa en datos de transacciones observables más que en tasas de interés estimadas; como ocurre a veces con LIBOR.

Transición a la Tasa de Financiamiento Garantizado a un Día (SOFR)

Por ahora, la LIBOR y la tasa de financiación garantizada a un día (SOFR) coexistirán. Sin embargo, se espera que este último suplante a la LIBOR en los próximos años como el punto de referencia dominante para los derivados y productos crediticios denominados en dólares. Tal como están las cosas, el objetivo es eliminar gradualmente el LIBOR para 2021.

El 30 de noviembre de 2020, la Reserva Federal anunció que LIBOR se eliminará gradualmente y, finalmente, se reemplazará en junio de 2023. En el mismo anuncio, se ordenó a los bancos que dejaran de escribir contratos con LIBOR para fines de 2021 y todos los contratos que usan LIBOR deberían finalizar antes del 30 de junio de 2023.

Desafíos de Transición

La transición a una nueva tasa de referencia es difícil; ya que hay billones de dólares en contratos basados ​​en LIBOR pendientes y algunos de estos no están programados para vencer hasta la jubilación de LIBOR. Eso incluye el LIBOR en dólares estadounidenses a tres meses ampliamente utilizado, que tiene aproximadamente $ 200 billones de deuda y contratos vinculados a él. La modificación de precios de los contratos es compleja porque las dos tasas de interés tienen varias diferencias importantes. Por ejemplo, la LIBOR representa préstamos no garantizados, mientras que la tasa de financiación garantizada a un día (SOFR); que representa préstamos respaldados por bonos del Tesoro (bonos T), es una tasa prácticamente libre de riesgo.

Además, el LIBOR en realidad tiene 35 tasas diferentes; mientras que la tasa de financiación garantizada a un día (SOFR) actualmente solo publica una tasa basada exclusivamente en préstamos a un día. El cambio a la tasa de financiación garantizada a un día (SOFR) tendrá el mayor impacto en el mercado de derivados. Sin embargo, también desempeñará un papel importante en los productos de crédito al consumo; incluidas algunas hipotecas de tasa ajustable y préstamos privados para estudiantes, así como en instrumentos de deuda como papel comercial.

En el caso de una hipoteca de tasa ajustable basada en la tasa de financiamiento garantizado a un día (SOFR); el movimiento de la tasa de referencia determina cuánto pagarán los prestatarios una vez que finalice el período de interés fijo de su préstamo. Si la tasa de financiación garantizada a un día (SOFR) es más alta cuando el préstamo se «restablece»; los propietarios también pagarán una tasa más alta.

Consideraciones Especiales

Otros países han buscado sus propias alternativas al LIBOR. Por ejemplo, el Reino Unido eligió el índice promedio de la libra esterlina a un día (SONIA); un tipo de interés para los préstamos a un día, como referencia para los contratos en libras esterlinas en el futuro. El Banco Central Europeo (BCE), por su parte, optó por utilizar el índice medio del euro a un día (EONIA); que se basa en préstamos no garantizados a un día, mientras que Japón aplicará su propia tasa, denominada tasa promedio de Tokio (TONAR).

Consejos Clave

  • La tasa de financiación garantizada a un día (SOFR) es una tasa de interés de referencia para los derivados y préstamos denominados en dólares que reemplaza la tasa de oferta interbancaria de Londres (LIBOR).
  • El SOFR se basa en transacciones en el mercado de recompra del Tesoro y se considera preferible al LIBOR; ya que se basa en datos de transacciones observables en lugar de en tasas de interés estimadas.
  • Si bien SOFR se está convirtiendo en la tasa de referencia para derivados y préstamos denominados en dólares; otros países han buscado sus propias tasas alternativas, como SONIA y EONIA.
  • Comprensión de la tasa de financiación garantizada a un día (SOFR)
  • La tasa de financiación garantizada a un día, o SOFR, es una tasa de interés influyente que los bancos utilizan para fijar el precio de los préstamos y derivados denominados en dólares estadounidenses.
  • La tasa diaria de financiación garantizada a un día (SOFR) se basa en transacciones en el mercado de recompra de bonos del Tesoro; donde los inversores ofrecen a los bancos préstamos a un día respaldados por sus activos en bonos.
  • El Banco de la Reserva Federal de Nueva York comenzó a publicar la tasa de financiación garantizada a un día (SOFR) en abril de 2018 como parte de un esfuerzo por reemplazar la LIBOR; una tasa de referencia de larga data utilizada en todo el mundo.
  • Las tasas de referencia como la tasa de financiamiento garantizado a un día (SOFR) son esenciales en la negociación de derivados; en particular permutas de tipos de interés, que las corporaciones y otras partes utilizan para gestionar el riesgo de tipos de interés y para especular sobre los cambios en los costos de los préstamos.

Artículos Relacionados

¿Qué es el Escándalo LIBOR? Comprensión

Escándalo LIBOR

Escándalo LIBOR

El escándalo de la LIBOR fue un esquema muy publicitado en el que los banqueros de varias de las principales instituciones financieras coludieron entre sí para manipular la tasa de oferta interbancaria de Londres (LIBOR). El escándalo sembró la desconfianza en la industria financiera y provocó una ola de multas, juicios y acciones regulatorias. Aunque el escándalo salió a la luz en 2012, hay evidencia que sugiere que la colusión en cuestión había estado en curso desde 2003.

Muchas instituciones financieras líderes estuvieron implicadas en el escándalo; entre ellas Deutsche Bank (DB), Barclays (BCS), Citigroup (C), JPMorgan Chase (JPM) y el Royal Bank of Scotland (RBS).

Como resultado del escándalo de la fijación de tasas; han surgido dudas sobre la validez de la tasa LIBOR como tasa de referencia creíble y ahora se está eliminando gradualmente. Según la Reserva Federal y los reguladores en el Reino Unido; LIBOR se eliminará gradualmente el 30 de junio de 2023 y será reemplazado por la Tasa de Financiamiento Garantizado a un Día (SOFR). Como parte de esta eliminación, las tasas LIBOR en USD a una semana y a dos meses ya no se publicarán después del 31 de diciembre de 2021.

Entendiendo el Escándalo LIBOR

El LIBOR es una tasa de interés de referencia que se utiliza para la fijación de precios de préstamos y productos derivados en todo el mundo. Se forma utilizando tipos de interés de referencia presentados por los bancos participantes. Durante el escándalo de la LIBOR, los operadores de muchos de estos bancos presentaron deliberadamente tasas de interés altas o bajas artificialmente para forzar la tasa de LIBOR a subir o bajar; en un esfuerzo por respaldar las actividades de negociación y derivados de sus propias instituciones.

El escándalo de la LIBOR fue significativo debido al papel central que juega la LIBOR en las finanzas globales. El LIBOR se utiliza para determinar todo, desde las tasas de interés que las corporaciones gigantes pagarán por los préstamos, hasta las tasas que los consumidores individuales pagarán por las hipotecas de viviendas o los préstamos para estudiantes.

También se utiliza en la fijación de precios de derivados. Por lo tanto, al manipular la LIBOR, los operadores en cuestión estaban provocando indirectamente una cascada de activos financieros mal valorados en todo el sistema financiero mundial. Es comprensible que esto provocó una gran reacción pública, ya que las partes de todo el mundo se preguntaron si podrían haber sido perjudicadas financieramente.

La indignación pública por el escándalo se vio agravada por el aparente descaro de muchos de los actores involucrados. Esto se hizo evidente a medida que se publicaron correos electrónicos y registros telefónicos durante las investigaciones. La evidencia mostró que los comerciantes piden abiertamente a otros que establezcan tasas en una cantidad específica para que una posición en particular sea rentable.

Los reguladores tanto en los Estados Unidos como en el Reino Unido impusieron multas por unos $ 9 mil millones a los bancos involucrados en el escándalo; así como una serie de cargos criminales. Debido a que LIBOR se utiliza en la fijación de precios de muchos de los instrumentos financieros utilizados por corporaciones y gobiernos; también han presentado demandas, alegando que la fijación de tasas los afectó negativamente.

Ejemplo del Escándalo LIBOR

Si bien es difícil saber si alguna persona en particular se vio afectada por el escándalo LIBOR; existen muchas formas potenciales en las que su impacto podría haberse sentido. Por ejemplo, los propietarios de viviendas individuales pueden haber iniciado hipotecas de tasa fija en un momento en que las tasas hipotecarias se levantaron artificialmente en base a la manipulación al alza de la LIBOR.

Desde la perspectiva del propietario, cada dólar de gasto adicional causado por las tasas artificialmente altas podría verse como una especie de «robo» cometido por quienes fijan la tasa LIBOR. Del mismo modo, muchos comerciantes que formaban parte de contratos de derivados habrían experimentado pérdidas innecesariamente graves como resultado del escándalo LIBOR.

Al final, el escándalo LIBOR dejó muchos cambios a su paso. Tras la exposición de la colusión de LIBOR, la Autoridad de Conducta Financiera de Gran Bretaña (FCA) tomó la responsabilidad de la supervisión de LIBOR de la Asociación de Banqueros Británicos (BBA) y la entregó a la Administración de Referencia de Intercontinental Exchange (IBA). La IBA es una subsidiaria independiente en el Reino Unido del operador de intercambio privado con sede en EE.UU, Intercontinental Exchange (ICE). LIBOR ahora se conoce comúnmente como ICE LIBOR.

Más recientemente, la FCA ha anunciado que apoyará LIBOR solo hasta 2021, momento en el que espera hacer la transición a un sistema alternativo. La Reserva Federal de Nueva York lanzó un posible reemplazo de LIBOR en abril de 2018 llamado Tasa de Financiamiento Garantizado a un Día (SOFR); que se basa en préstamos a corto plazo observados en el mercado de repos.

A diferencia de la LIBOR, existe una amplia negociación en repos del Tesoro, aproximadamente 1.500 veces la de los préstamos interbancarios en 2018; lo que teóricamente lo convierte en un indicador más preciso de los costos de los préstamos. Además, la tasa de financiación garantizada a un día (SOFR) se basa en datos de transacciones observables más que en tasas de interés estimadas; como ocurre a veces con LIBOR.

Consejos Clave

  • El escándalo LIBOR se refiere a un episodio importante de colusión financiera en el que varios bancos manipularon una de las tasas de interés de referencia más influyentes del mundo.
  • El esquema provocó que los contratos financieros tuvieran un precio incorrecto en todo el mundo, en transacciones como hipotecas, recaudación de fondos corporativos y operaciones de derivados.
  • El escándalo dejó varios cambios regulatorios, juicios y multas a su paso, dañando la confianza pública en los mercados financieros.

Artículos Relacionados

Entendiendo la Tasa Euro LIBOR. Comprensión

Tasa Euro LIBOR

Euro LIBOR

Euro LIBOR es la tasa de oferta interbancaria de Londres (LIBOR) denominada en euros. Este es el tipo de interés que los bancos se ofrecen entre sí para préstamos grandes a corto plazo realizados en euros. La tasa la fija una vez al día un pequeño grupo de grandes bancos de Londres, pero fluctúa a lo largo del día. Este mercado facilita que los bancos mantengan los requisitos de liquidez porque pueden obtener préstamos rápidamente de otros bancos que tienen superávit.

Entendiendo el Euro LIBOR

La tasa de oferta interbancaria de Londres es el índice de referencia más utilizado en el mundo para las tasas de interés a corto plazo. Sirve como indicador principal del tipo de interés medio al que los bancos contribuyentes pueden obtener préstamos a corto plazo en el mercado interbancario de Londres.

Actualmente, hay de 11 a 18 bancos contribuyentes para las cinco monedas principales (USD, EUR, GBP, JPY y CHF). LIBOR establece tasas para siete vencimientos diferentes. Cada día laborable se registra un total de 35 tipos (número de divisas multiplicado por el número de vencimientos diferentes).

La función principal de Euro LIBOR es servir como tasa de referencia de referencia para instrumentos de deuda, incluidos bonos gubernamentales y corporativos, hipotecas, préstamos para estudiantes, tarjetas de crédito; así como derivados, como permutas de divisas e intereses, entre muchos otros productos financieros.

Ejemplos

Por ejemplo, tome un pagaré de tasa flotante que paga cupones basados ​​en Euro LIBOR más un margen de 35 puntos básicos (0.35%) anualmente. En este caso, la tasa LIBOR euro utilizada es la LIBOR euro a un año más un diferencial de 35 puntos básicos. Cada año, la tasa del cupón se restablece para que coincida con la tasa LIBOR en euros actual a un año, más el margen predeterminado.

Si, por ejemplo, el Euro LIBOR a un año es del 4% al comienzo del año, el bono pagará el 4,35% de su valor nominal al final del año. El diferencial generalmente aumenta o disminuye según la solvencia crediticia de la institución que emite la deuda.

Euro LIBOR Vrs a EURIBOR

LIBOR, representa la tasa de interés promedio que los principales bancos de Londres estiman que cobrarían por prestar a otros bancos, la tasa de oferta interbancaria en euros, conocida como EURIBOR, es una tasa de referencia similar derivada de los bancos de la zona euro. Mientras que el Euribor solo está disponible en euros, el LIBOR está disponible en 10 monedas diferentes.

El Futuro del Euro LIBOR

LIBOR, que es un punto de referencia global, está bajo fuego, especialmente desde el escándalo de fijación de LIBOR de 2012. En Europa, la tasa promedio interbancaria a un día en libras esterlinas (SONIA) reemplazará a la LIBOR como referencia para 2021. SONIA se basa en ofertas reales de los bancos contribuyentes y no en niveles indicados. Estos últimos están sujetos a manipulación si el banco contribuyente quiere ocultar o mejorar su posición de capital.

El impulso de reemplazo se centra en LIBOR, ya que es el estándar reconocido mundialmente, pero todas las tasas similares, incluidas HIBOR en Hong Kong y SIBOR en Singapur, se enfrentan a la obsolescencia. La Reserva Federal de EE.UU introdujo la Tasa de Financiamiento Garantizado a un Día (SOFR), una nueva tasa de referencia creada en cooperación con la Oficina de Investigación Financiera del Departamento del Tesoro de EE.UU.

Los reguladores de la Reserva Federal y del Reino Unido están instando a los bancos a cerrar los contratos con LIBOR. Un anuncio de la Fed y los reguladores del Reino Unido en noviembre de 2020 declaró que los bancos deberían dejar de firmar contratos con LIBOR para fines de 2021. Después de 2021, la tasa ya no se publicará. Además, los contratos que utilizan LIBOR deberían finalizar antes del 30 de junio de 2023.

Durante algún tiempo, la Fed ha estado advirtiendo a los bancos que comiencen a prepararse para una transición a SOFR. En lugar de depender de las cotizaciones bancarias, SOFR utilizará las tasas que ofrecen los inversores para valores bancarios, como préstamos y activos respaldados por bonos.

Artículos Relacionados

Tasa Promedio Interbancaria a un Día en Libras Esterlinas (SONIA)

SONIA

¿Qué es la Tasa Promedio Interbancaria a un Día en Libras Esterlinas (SONIA)?

El promedio del índice Sterling Overnight, abreviado SONIA; es la tasa de interés efectiva a un día pagada por los bancos por transacciones no garantizadas en el mercado de la libra esterlina británica. Se utiliza para la financiación nocturna para operaciones que se realizan fuera del horario laboral y representa la profundidad del negocio nocturno en el mercado.

La tasa promedio interbancaria a un día en libras esterlinas ofrece a los comerciantes e instituciones financieras una alternativa a la tasa interbancaria a un día de Londres, o LIBOR; como tasa de interés de referencia para transacciones financieras a corto plazo.

Comprensión de la Tasa Promedio Interbancaria a un Día en Libras Esterlinas

Calculada cada día hábil en Londres, la fijación de SONIA es la tasa promedio ponderada de las transacciones en libras esterlinas a un día sin garantía negociadas por miembros de la Asociación de Corredores de Mercados Mayoristas (WMBA). El tamaño mínimo del acuerdo para su inclusión es de 25 millones de libras esterlinas.

La tasa promedio interbancaria a un día en libras esterlinas (SONIA) fue establecida en 1997 por la Asociación de Corredores de Mercados Mayoristas de Gran Bretaña. Antes de SONIA, la WMBA no tenía una tasa de financiación a un día en libras esterlinas; lo que creaba volatilidad en las tasas de interés a un día del Reino Unido. Con la creación de la SONIA llegó la estabilidad de las tarifas a un día.

La tasa también alentó la formulación del mercado Overnight Index Swap (OIS) y los mercados monetarios en libras esterlinas en Gran Bretaña. SONIA es un índice de referencia ampliamente utilizado para muchas transacciones; entre las que se encuentra el tipo de referencia para el mercado Overnight Indexed Swap en libras esterlinas.

Cambios Recientes en SONIA

El Banco de Inglaterra actúa como administrador del índice de referencia SONIA. La Autoridad de Conducta Financiera (FCA) regula a la Asociación de Corredores de Mercados Mayoristas como agente de cálculo y publicación. Sin embargo, en abril de 2018, el propio Banco asumió las funciones de cálculo y publicación. Además, el Banco de Inglaterra informó varios cambios que entraron en vigencia a partir de abril de 2018:

SONIA se amplió para incluir transacciones no garantizadas de un día para otro que se negociarán bilateralmente, así como las gestionadas a través de corredores. Ahora recopilan datos utilizando su sistema de recopilación de datos Sterling Money Market.

El banco utiliza un método de media recortada ponderada por volumen para calcular la tasa.
La tarifa SONIA aparece el día hábil posterior al día en que la tarifa se relaciona a las 9 am. Esta publicación retrasada permite al banco contabilizar un mayor volumen de actividad.

En abril de 2017, el Grupo de Trabajo sobre Tasas de Referencia Libres de Riesgo en Libras Esterlinas; que es un grupo de agentes activos e influyentes en el mercado de swap de tasas de interés en libras esterlinas; anunció que SONIA sería su referencia de tasa de interés casi libre de riesgo. Este cambio afectará los derivados en libras esterlinas y los contratos financieros relacionados; y proporcionará una tasa de interés alternativa a la tasa de oferta interbancaria de Londres dominante (LIBOR).

Con ese fin, la Autoridad de Conducta Financiera del Reino Unido anunció que ya no exigiría a los bancos que presenten cotizaciones LIBOR después del año 2021. Si bien la LIBOR seguirá existiendo después de eso, su viabilidad como tasa de referencia probablemente se reducirá.

Consejos Clave

  • El Sterling Overnight Index Average, o SONIA, es un índice de préstamos no garantizados a muy corto plazo entre instituciones financieras del Reino Unido.
  • Lanzada en 1997, varios cambios realizados en 2017 y 2018 han llevado a la tasa SONIA a ser la tasa de interés de referencia libre de riesgo preferida por los corredores de valores del Reino Unido.
  • Esto se produce cuando la tasa LIBOR y su metodología de cálculo han sido objeto de críticas por corrección y fraude.

Artículos Relacionados

Definición de Cruz de la Muerte. Comprensión

Cruz de la Muerte

¿Qué es una Cruz de la Muerte?

La cruz de la muerte es un patrón de gráfico técnico que indica el potencial de una gran liquidación. La cruz de la muerte aparece en un gráfico cuando la media móvil a corto plazo de una acción cruza por debajo de su media móvil a largo plazo. Por lo general, los promedios móviles más comunes utilizados en este patrón son los promedios móviles de 50 y 200 días.

El indicador de cruz de muerte ha demostrado ser un predictor confiable de algunos de los mercados bajistas más severos del siglo pasado: en 1929, 1938, 1974 y 2008. Los inversores que salieron del mercado de valores al comienzo de estos mercados bajistas evitaron grandes pérdidas que alcanzaron el 90% en la década de 1930.

Debido a que una cruz de muerte es un indicador a largo plazo, a diferencia de muchos patrones de gráficos a corto plazo como el doji, tiene más peso para los inversores preocupados por bloquear las ganancias antes de que comience un nuevo mercado bajista. Un aumento de volumen suele acompañar a la aparición de la cruz de la muerte.

¿Qué te Dice la Cruz de la Muerte?

El cruce de la muerte ocurre cuando una media móvil a corto plazo (normalmente SMA de 50 días) cruza una media móvil importante a largo plazo (normalmente SMA de 200 días) a la baja y los analistas y operadores lo interpretan como una señal de un giro bajista definitivo en un mercado.

El nombre de la cruz de muerte se deriva de la forma de X creada cuando la media móvil a corto plazo desciende por debajo de la media móvil a largo plazo. Históricamente, el patrón precede a una recesión prolongada para los promedios móviles tanto a largo como a corto plazo.

Comprensión de la Cruz de Muerte

La cruz de la muerte es una señal de que el impulso a corto plazo en una acción o índice bursátil se está desacelerando, pero no siempre es un indicador confiable de que un mercado alcista está a punto de terminar. Ha habido muchas ocasiones en las que apareció una cruz de la muerte, como en el verano de 2016, cuando resultó ser un indicador falso.

Aquellos que se quedaron sin acciones durante el verano de 2016 se perdieron las considerables ganancias del mercado de valores que siguieron a lo largo de 2017. El ejemplo de la estrella de la muerte de 2016 ocurrió durante una corrección técnica de alrededor del 10%, que a menudo se considera una oportunidad de compra (conocida como ‘comprar en el baño’).

Existe cierta variación de opinión en cuanto a qué constituye precisamente este cruce significativo de promedio móvil. Algunos analistas lo definen como un cruce del promedio móvil de 100 días por el promedio móvil de 30 días, mientras que otros lo definen como el cruce del promedio de 200 días por el promedio de 50 días.

Los analistas también observan el cruce que ocurre en gráficos de marcos de tiempo más bajos como confirmación de una tendencia fuerte y continua. Independientemente de las variaciones en la definición precisa o el marco de tiempo aplicado, el término siempre se refiere a una media móvil a corto plazo, que tenía un valor más alto, cruzando por debajo de una media móvil importante a largo plazo.

Cruz de la Muerte Vs Cruz de Oro

Lo opuesto a la cruz de la muerte ocurre con la aparición de la cruz dorada, cuando la media móvil a corto plazo de una acción o índice se mueve por encima de la media móvil a largo plazo. Muchos inversores ven este patrón como un indicador alcista.

El patrón de la cruz dorada generalmente aparece después de que una tendencia bajista prolongada se haya agotado. Como ocurre con el cruce de la muerte, los inversores deberían confirmar la inversión de la tendencia después de varios días o semanas de movimiento de precios en la nueva dirección.

Gran parte del proceso de invertir siguiendo patrones es un comportamiento autocumplido, ya que los volúmenes de negociación aumentan con la atención de más inversores que son impulsados ​​en parte por un aumento en las noticias financieras sobre una acción en particular o el movimiento de un índice.

Limitaciones de Usar Este Indicador

Todos los indicadores están “rezagados” y ningún indicador puede predecir realmente el futuro. Como se ha visto, en ocaciones la primera cruz de muerte produce una señal falsa, y un comerciante que colocara un corto en ese momento estaría en problemas a corto plazo. A pesar de su aparente poder de predicción para pronosticar grandes mercados bajistas anteriores, los cruces de la muerte también producen regularmente señales falsas. Por lo tanto, un cruce de muerte siempre debe confirmarse con otras señales e indicadores antes de realizar una operación.

Consejos Clave

  • La cruz de la muerte es un patrón de gráfico técnico que indica el potencial de una gran liquidación y ha demostrado ser un predictor confiable de algunos de los mercados bajistas más severos del siglo pasado, incluidos 1929, 1938, 1974 y 2008.
  • Aparece en un gráfico cuando el promedio móvil a corto plazo de una acción, generalmente el de 50 días, cruza por debajo de su promedio móvil a largo plazo, generalmente el de 200 días.
  • La cruz de la muerte se puede contrastar con una cruz de oro que indica un movimiento alcista del precio.

Artículos Relacionados

Definición de Apreciación de Moneda. Comprensión

Apreciación de Moneda

¿Qué es la Apreciación de la Moneda?

La apreciación de la moneda es un aumento en el valor de una moneda en relación con otra moneda. Las monedas se aprecian entre sí por una variedad de razones, incluida la política gubernamental, las tasas de interés, las balanzas comerciales y los ciclos económicos.

Conceptos Básicos de la Apreciación de la Moneda

En un sistema de cambio de tipo flotante, el valor de una moneda cambia constantemente según la oferta y la demanda en el mercado de divisas. La fluctuación de los valores permite a los comerciantes y empresas aumentar o disminuir sus tenencias y beneficiarse de ellas.

La apreciación de la moneda, sin embargo, es diferente del aumento del valor de los valores. Las divisas se negocian en pares. Así, una moneda se aprecia cuando el valor de una sube en comparación con la otra. Esto es diferente a una acción cuya apreciación de precio se basa en la evaluación del mercado de su valor intrínseco. Por lo general, un operador de forex negocia un par de divisas con la esperanza de una apreciación de la divisa base frente a la contra divisa.

La apreciación está directamente relacionada con la demanda. Si el valor se aprecia (o sube), la demanda de la moneda también aumenta. Por el contrario, si una moneda se deprecia, pierde valor frente a la moneda con la que se negocia.

Comprensión de la Apreciación de la Moneda

Una cotización de moneda estándar enumera dos monedas como tasa. Por ejemplo, USD / JPY = 104,08. La primera de las dos monedas (USD) es la moneda base y representa una sola unidad, o el número 1 en el caso de una fracción como 1 / 104.08. La segunda es la moneda cotizada y está representada por la tasa como la cantidad de esa moneda necesaria para igualar una unidad de la moneda base. La forma en que se lee esta cotización es: Un dólar estadounidense compra 104,08 unidades de yenes japoneses.

Para efectos de la apreciación de la moneda, la tasa corresponde directamente a la moneda base. Si la tasa aumenta a 110, entonces un dólar estadounidense ahora compra 110 unidades de yenes japoneses y, por lo tanto, se aprecia. Como regla general, el aumento o la disminución de una tasa siempre corresponde a la apreciación / depreciación de la moneda base, y la inversa corresponde a la moneda cotizada.

Apreciación de Divisas Frente a Acciones

Una acción es un valor que representa la propiedad en una corporación para la cual sus funcionarios tienen el deber fiduciario de realizar operaciones que resulten en ganancias positivas para el accionista. Por lo tanto, una inversión en una acción siempre debe estar revalorizándose.

Por el contrario, una moneda representa la economía de un país y el tipo de cambio se cotiza emparejando dos países y calculando el tipo de cambio de una moneda en relación con la otra. En consecuencia, los factores económicos subyacentes de los países representativos inciden en esa tasa.

Una economía que experimenta crecimiento da como resultado una moneda que se aprecia y el tipo de cambio se ajusta en consecuencia. El país con la economía debilitada puede experimentar una depreciación de la moneda, lo que también tiene un efecto sobre el tipo de cambio.

Efectos de la Apreciación de la Moneda

Cuando la moneda de una nación se aprecia, puede tener varios efectos diferentes en la economía. Aquí hay solo un par:

Los Costos de Exportación Aumentan

Si el dólar estadounidense se aprecia, los extranjeros encontrarán los productos estadounidenses más caros porque tienen que gastar más en esos productos en USD. Eso significa que con el precio más alto, la cantidad de productos estadounidenses que se exportan probablemente disminuirá.

Esto eventualmente conduce a una reducción del producto interno bruto (PIB), lo que definitivamente no es un beneficio.

Importaciones Más Baratas

Si los productos estadounidenses se vuelven más caros en el mercado extranjero, los productos extranjeros o las importaciones se volverán más baratos en los EE.UU. Eso se traduce en un beneficio de precios más bajos, lo que lleva a una inflación general más baja.
Por lo tanto, las tasas de cambio están sujetas a los reflujos y flujos, o apreciación y depreciación, que se corresponden con los ciclos económicos y comerciales de las economías subyacentes y son impulsados ​​por las fuerzas del mercado.

Ejemplo Real de Apreciación de la Moneda

El ascenso de China al escenario mundial como una gran potencia económica se ha correspondido con las oscilaciones de los precios en el tipo de cambio del yuan, su moneda. A partir de 1981, la moneda subió de manera constante frente al dólar hasta 1996, cuando se estabilizó a un valor de 1 dólar equivalente a 8,28 yuanes hasta 2005.

El dólar se mantuvo relativamente fuerte durante este período. Significó costos de fabricación y mano de obra más baratos para las empresas estadounidenses, que emigraron al país en masa. También significó que los productos estadounidenses eran competitivos en el escenario mundial, así como en los Estados Unidos debido a su mano de obra barata y costos de fabricación.

Consejos Clave

  • La apreciación de la moneda se refiere al aumento en el valor de una moneda en relación con otra en los mercados de divisas.
  • El valor de una moneda no se mide en términos absolutos. Siempre se mide en relación con la moneda que se compara con ella.
  • Los países utilizan la apreciación de la moneda como una herramienta estratégica para impulsar sus perspectivas económicas.

Artículos Relacionados

Definición de Préstamo Covenant-Lite. Comprensión

Préstamo Covenant-Lite

Comprensión de un Préstamo Covenant-Lite

Un préstamo Covenant-Lite brinda a los prestatarios un nivel de financiamiento más alto del que probablemente podrían acceder a través de un préstamo tradicional; al tiempo que ofrecen condiciones más favorables para los prestatarios.

Los préstamos Covenant-Lite también conllevan más riesgo para el prestamista que los préstamos tradicionales. Estos permiten que las personas y las empresas se involucren en actividades que serían difíciles o imposibles según un contrato de préstamo tradicional; como pagar dividendos a los inversores y aplazar los pagos programados del préstamo. Generalmente se otorgan solo a firmas de inversión, corporaciones e individuos de alto patrimonio neto.

Orígenes de los Préstanos Covenant-Lite

Sus orígenes generalmente se remontan a la aparición de grupos de capital privado que utilizaron adquisiciones altamente apalancadas (LBO) para adquirir otras empresas. Las adquisiciones apalancadas requieren un alto nivel de financiamiento versus capital; pero pueden tener enormes retornos para la firma de capital privado y sus inversionistas si dan como resultado una compañía más ágil y rentable con un enfoque en devolver valor a los accionistas. Debido a los grandes niveles de deuda requeridos para tales acuerdos y al igualmente grande potencial de ganancias; los grupos de adquisiciones pudieron comenzar a dictar condiciones a sus bancos y otros prestamistas.

Pros y Contras de un Préstamo Covenant-Lite

Una vez que las firmas de capital privado lograron una relajación de las restricciones típicas de préstamos y términos más favorables en cuanto a cómo y cuándo debían reembolsarse sus préstamos, pudieron ir más allá y más allá en sus acuerdos. En consecuencia, el concepto de compra apalancada se llevó demasiado lejos, según muchos observadores, y, en la década de 1980, algunas empresas comenzaron a arruinarse después de la LBO debido a la abrumadora carga de deuda que estaban cargando de repente.

No importa cuán ligeros fueran los préstamos, las empresas todavía estaban en el lado equivocado del balance cuando se trataba de su capacidad para pagar el dinero que debían. Los préstamos Covenant-Lite son más riesgosos para los prestamistas, pero también ofrecen un mayor potencial de ganancias.

Aunque los acuerdos de compra apalancada posiblemente se salieron de control en la década de 1980; y las empresas altamente apalancadas y sus empleados a menudo pagaron el precio. Un análisis posterior mostró que muchas LBO tuvieron éxito en términos financieros y que el desempeño general de los préstamos covenant-lite estuvo en línea con préstamos tradicionales otorgados a los negociadores.

De hecho, la expectativa ha cambiado tanto que algunos inversionistas y expertos financieros ahora se preocupan cuando un acuerdo no recibe el tipo de términos de financiamiento favorables que se ajustan a la definición de un préstamo con convenio mínimo. Su suposición es que la inclusión de convenios de préstamos tradicionales es una señal de que el trato es malo; más que un paso prudente que cualquier prestamista podría querer tomar para protegerse.

Consejos Clave

  • Los préstamos Covenant-Lite son diferentes a los préstamos tradicionales porque tienen menos protección para el prestamista y términos más amigables para el prestatario.
  • Los préstamos son favorables en términos del nivel de ingresos del prestatario, la garantía y las condiciones de pago del préstamo.

Artículos Relacionados

Relación Precio-Investigación. Definición PRR

Relación Precio-Investigación

¿Qué es la Relación Precio-Investigación (PRR)?

La relación precio-investigación (PRR) mide la relación entre la capitalización de mercado de una empresa y sus gastos de investigación y desarrollo (I + D). La relación precio-investigación se calcula dividiendo el valor de mercado de una empresa por sus últimos 12 meses de gastos en investigación y desarrollo. Un concepto similar es el rendimiento del capital de investigación.

El valor de mercado se calcula multiplicando el número total de acciones en circulación por los precios actuales de las acciones. La definición de gastos de investigación y desarrollo puede diferir de una industria a otra; pero las empresas de la misma industria generalmente siguen definiciones similares de gastos de I + D.

Los gastos de I + D pueden incluir gastos relacionados con elementos tales como investigación pura, licencias de tecnología, la compra de tecnología patentada de terceros o el costo de obtener innovaciones a través de obstáculos regulatorios. Los gastos de I + D generalmente se revelan y explican en el estado de resultados o en las notas a pie de página relevantes de los estados contables publicados.

¿Qué te Dice PRR?

El experto y escritor financiero Kenneth Fisher desarrolló la relación precio-investigación para medir y comparar el gasto relativo en I + D de las empresas. Fisher sugiere comprar empresas con PRR entre 5 y 10 y evitar empresas con PRR superiores a 15. Al buscar PRR bajas, los inversores deberían poder detectar empresas que están redirigiendo las ganancias actuales a I + D; asegurando así mejor rentabilidad futura a largo plazo.

La relación precio-investigación (PRR) es una comparación de cuánto dinero gasta una empresa en investigación y desarrollo en relación con su capitalización de mercado. La proporción es más importante en empresas basadas en la investigación; como empresas farmacéuticas, empresas de software, empresas de hardware y empresas de productos de consumo.

En estas industrias de investigación intensiva, la inversión en innovación científica y técnica es fundamental para el éxito y el crecimiento a largo plazo y puede ser un indicador importante de la capacidad de la empresa para generar ganancias en el futuro. En comparación, entre pares, una relación precio/investigación más baja puede considerarse atractiva; ya que puede indicar que la empresa tiene una gran inversión en investigación y desarrollo, y es quizás más probable que tenga éxito en producir rentabilidad futura.

Una proporción relativamente más alta puede indicar lo contrario, que la empresa no está invirtiendo lo suficiente en el éxito futuro. Sin embargo, el diablo está en los detalles, y la empresa con una relación precio/investigación más baja puede tener una capitalización de mercado más baja y no necesariamente una mejor inversión en I + D.

Del mismo modo, una relación precio/investigación relativamente favorable no garantiza el éxito de futuras innovaciones de productos; ni tampoco una gran cantidad de gasto en I + D garantiza beneficios futuros. Lo que realmente importa es la eficacia con la que la empresa está empleando su dinero en I + D. Además, el nivel apropiado de gasto en I + D varía según la industria y depende de la etapa de desarrollo de la empresa. Como ocurre con todos los análisis de razón, la razón precio/investigación debe verse como una pieza de un gran mosaico de datos que se utiliza para informar una opinión de inversión.

Diferencia Entre PRR y el Modelo de Flujo de Precio-Crecimiento

El gurú de la inversión en tecnología Michael Murphy ofrece el modelo de flujo de precio / crecimiento. El flujo de precios/crecimiento intenta identificar las empresas que están produciendo sólidas ganancias actuales; y, al mismo tiempo, invierten mucho dinero en I + D. Para calcular el flujo de crecimiento; simplemente tome la I + D de los últimos 12 meses y divídala por las acciones en circulación para obtener I + D por acción. Agregue esto al EPS de la compañía y divídalo por el precio de la acción.

La idea es que los bajos ingresos se pueden compensar con un mayor gasto en I + D y viceversa. Si una empresa decide gastar en el presente y descuida el futuro, las ganancias por acción actuales pueden superar el gasto en I + D. Ambos casos dan como resultado una lectura alta del índice, lo que significa ganancias sólidas por acción o gasto en I + D. De esa manera, los inversores pueden evaluar el crecimiento potencial de las ganancias ahora y en el futuro.

Limitaciones de la Relación Precio-Investigación (PRR)

Desafortunadamente, aunque los modelos PRR y Murphy hacen un gran trabajo al ayudar a los inversores a identificar empresas que están comprometidas con la I + D; ninguno indica si el gasto en I + D tiene el efecto deseado (es decir, la creación exitosa de productos rentables a lo largo del tiempo).

En otras palabras, la PRR no mide la eficacia con la que la administración asigna capital. Una gran factura de I + D, por ejemplo; no garantiza que el lanzamiento de nuevos productos o las implementaciones en el mercado generen ganancias en trimestres futuros. Al evaluar la I + D, los inversores deben determinar no solo cuánto se invierte; sino también qué tan bien está funcionando la inversión en I + D para la empresa.

Las empresas suelen citar la producción de patentes como una medida tangible de éxito en I + D. El argumento es que cuantas más patentes se presenten, más productivo será el departamento de I + D. Pero en realidad, la proporción de patentes por dólar de I + D tiende a representar la actividad de los abogados y administradores de una empresa más que sus ingenieros y desarrolladores de productos. Además, no hay garantía de que una patente se convierta en un producto comercializable.

Consejos Clave

  • La relación precio/investigación es una medida de comparación de los gastos de I + D de las empresas.
  • Una proporción de PRR entre 5x-10x se considera ideal, mientras que se debe evitar un nivel superior a 15x.
  • Sin embargo, el PRR no mide la eficacia con la que los gastos de I + D se traducen en productos viables o en crecimiento de las ventas.

Artículos Relacionados