Utilitarismo y ética práctica

Descargar como PDF

¿Debemos extender nuestra preocupación a todos los seres capaces de sentir placer y dolor cuyos sentimientos se ven afectados por nuestra conducta? ¿O debemos limitar nuestra perspectiva a la felicidad humana? El primer punto de vista es el adoptado por… la escuela utilitarista… [P]arece arbitrario e irrazonable excluir del objetivo final, así concebido, cualquier placer de cualquier ser sintiente.

Henry Sidgwick1

Introducción

El utilitarismo tiene importantes implicaciones sobre cómo debemos pensar en llevar una vida ética. En este capítulo, nos centraremos en cinco de sus implicaciones teóricas. En primer lugar, a diferencia de muchas otras teorías éticas, el utilitarismo no considera que las acciones y las omisiones sean moralmente diferentes. En segundo lugar, es inusualmente exigente: requiere que sacrifiquemos más que muchas otras teorías éticas. En tercer lugar, implica que debemos ser imparciales con respecto a las causas: que debemos dirigir nuestros esfuerzos altruistas allí donde podamos tener el mayor impacto positivo sobre los demás. En cuarto lugar, nos insta a considerar el bienestar de las personas independientemente del país en el que vivan, la especie a la que pertenezcan y el momento en el que existan. En quinto lugar, a pesar de diferir radicalmente de la moral de sentido común como enfoque ético, el utilitarismo suele respaldar las prohibiciones morales de sentido común.

En el artículo Actuar conforme al utilitarismo se discute cómo deberían actuar los utilitaristas en la práctica. En resumen, la mayoría de los utilitaristas deberían donar una parte significativa de sus ingresos para resolver los problemas más acuciantes del mundo, deberían dedicar sus carreras profesionales a hacer el bien, y deberían aspirar a altos grados de cooperatividad, integridad personal y honestidad.

¿Hay diferencia entre hacer daño y permitirlo?

Una persona puede causar un mal a los demás no sólo por sus acciones, sino también por su inacción, y en ambos casos es responsable justificadamente ante ellos por el daño causado.

John Stuart Mill, On Liberty

Muchos teóricos no consecuencialistas consideran que hay una diferencia moralmente relevante entre hacer daño y permitirlo, incluso si las consecuencias de una acción o inacción son las mismas. Esta postura se conoce como la “doctrina de hacer y permitir”, según la cual los daños causados por acciones —por cosas que hacemos activamente— son peores que los daños por omisión. Quienes sostienen esta doctrina pueden afirmar, por ejemplo, que es peor hacer daño a un niño, en igualdad de condiciones, que no evitar que ese mismo niño sufra daños en un accidente.

Por supuesto, las condiciones no suelen ser iguales. Tanto desde una perspectiva consecuencialista como desde una perspectiva no consecuencialista, una norma social que permitiera hacer daño a los niños sería peor que otra que permitiera no preocuparse por prevenir que los niños sufran daños accidentalmente. Esto se debe a que dañar activamente ja los niños podría sentar un precedente que animara a otros a dañar más a los niños, lo que tendría peores consecuencias generales. Hacer daño puede ser instrumentalmente peor que permitir el daño incluso si la doctrina de hacer y permitir es falsa.

Sin embargo, aunque los consecuencialistas —incluidos los utilitaristas— aceptan que hacer daño suele ser instrumentalmente peor que permitirlo, niegan que hacer daño sea intrínsecamente peor que permitirlo. Para los utilitaristas, lo único que importa en sí mismo es el resultado que experimenta el niño. Para el niño perjudicado, el resultado es el mismo, tanto si es uno mismo quien hace el daño como si es otro quien lo hace y uno no lo evita. Cuando se considera desde la perspectiva del niño, la distinción entre acción y omisión es irrelevante: tanto si su sufrimiento es resultado de una acción deliberada como si procede de la abstención, sufre lo mismo de cualquier manera.

Importa mucho si existe o no una diferencia moral intrínseca entre hacer daño y permitirlo. Como se ha señalado anteriormente, la doctrina de hacer y permitir es el núcleo del desacuerdo entre muchos consecuencialistas y no consecuencialistas. Además, es importante para la toma de decisiones en el mundo real. Por ejemplo, las directrices éticas de muchas asociaciones médicas nunca permiten a los médicos causar activa e intencionadamente la muerte de un paciente. Sin embargo, es aceptable que los médicos dejen morir intencionadamente a un paciente en determinadas circunstancias, como cuando el paciente sufre mucho dolor y quiere poner fin a su vida. Esta distinción —entre un médico que deja morir a un enfermo terminal y un médico que ayuda activamente a un paciente que quiere poner fin a su vida— se considera menos relevante desde una perspectiva utilitarista. Si permitimos a los médicos dejar morir a un enfermo terminal (que desea poner fin a su sufrimiento), un utilitarista sostendría que también deberíamos permitirles ayudar activamente a un paciente a provocar su muerte con su consentimiento.

Exigencia

El utilitarismo es una teoría ética muy exigente: sostiene que siempre que puedas hacer más para ayudar a otras personas que para ayudarte a ti mismo, deberías hacerlo.2 Por ejemplo, si pudieras sacrificar tu vida para salvar la de muchas otras personas, entonces, en igualdad de condiciones, según el utilitarismo, deberías hacerlo.

Aunque son raras las ocasiones en las que sacrificar la propia vida es lo mejor, el utilitarismo mantiene su nivel de exigencia en el mundo actual. Por ejemplo, donando a una organización benéfica de salud global muy eficaz puedes salvar la vida de un niño por sólo unos miles de dólares.3 Siempre que el beneficio que otros reciban de tales donaciones supere lo que tú ganarías guardándote el dinero para ti —como es casi seguro que ocurra, si eres un ciudadano típico de un país rico—, deberías donarlo. De hecho, probablemente deberías donar la mayor parte de tus ingresos de por vida. Según el utilitarismo, sólo es realmente justificable gastar dinero en uno mismo —por ejemplo, en ir al cine o en comprar ropa bonita— si se piensa que este gasto haría más bien que cualquier donación posible. Se trata de un listón muy alto.

Además de recomendar donaciones muy significativas, el utilitarismo afirma que también hay que [elegir la carrera profesional que más beneficie a los demás](/actuar-conforme-al-utilitarismo#eleccion-de-carrera profesional). Esto podría implicar trabajar en una organización sin ánimo de lucro, realizar investigaciones de gran importancia o dedicarse a la política o al activismo.

Imparcialidad respecto a las causas

Según la opinión predominante sobre ayudar a los demás, a quién debemos ayudar y cómo debemos hacerlo es una cuestión de preferencia personal. Este punto de vista frecuente implica que uno puede elegir centrarse en la educación, las artes, las especies en peligro de extinción o cualquier otra causa de acuerdo con sus pasiones personales.4

Sin embargo, los utilitaristas sostienen que no deberíamos escoger nuestras prioridades basándonos principalmente en nuestro apego personal a una determinada causa social; en lugar de ello, deberíamos dirigir nuestros esfuerzos a aquello que pueda tener el mayor impacto positivo en los demás. El utilitarismo implica lo que podemos llamar imparcialidad respecto a las causas:5

La imparcialidad respecto a las causas es la idea de que la elección de la causa social en la que centrarse debería depender de, y sólo de, la cantidad esperada de bien que uno puede hacer en esa causa.

Para ilustrar esta idea, supongamos que podemos donar a una de dos organizaciones benéficas diferentes. Una suministra mosquiteras para proteger a los niños de la malaria; la otra trata a enfermos de cáncer. Supongamos que donar a la organización benéfica que suministra mosquiteras salvará el doble de vidas que donar a la organización benéfica que trata el cáncer. Sin embargo, un miembro de tu familia murió de cáncer, por lo que sientes un apego personal por esa causa. ¿Deberías, por tanto, donar a la organización benéfica contra el cáncer?

Los utilitaristas dirían que no. Desde el punto de vista utilitarista, la importancia de salvar dos vidas en lugar de una pesa más que el apego personal que pueda llevar al donante a dar prioridad a la vida del enfermo de cáncer. Desde el punto de vista del utilitarismo, deberíamos ser completamente imparciales a la hora de decidir qué causa social apoyar, y dejar que esta decisión se guíe únicamente por la cuestión de dónde podemos hacer el mayor bien posible.

Lo importante es que sabemos que algunas formas de beneficiar a las personas hacen mucho más bien que otras. Por ejemplo, en el área de la salud y el desarrollo globales, algunas intervenciones son más de 100 veces más eficaces que otras.6 Además, muchos investigadores creen que la diferencia en términos esperados entre causas es tan grande como las diferencias entre intervenciones dentro de una causa concreta. Si es así, centrarse en las mejores causas tiene un impacto muchísimo mayor que centrarse en las causas promedio.

La ampliación del círculo moral

Una cuestión crucial a la hora de determinar la causa a la que dedicar nuestros esfuerzos es qué individuos debemos incluir en nuestras deliberaciones morales.

Ahora reconocemos que características como la raza, el sexo y la orientación sexual no son una excusa para discriminar a las personas o ignorar su sufrimiento. Con el tiempo, nuestra sociedad ha ido ampliando gradualmente su preocupación moral a un número creciente de grupos: una tendencia de progreso moral que a menudo se denomina ampliación del círculo moral.7 Pero, ¿cuáles son los límites de esta tendencia? ¿Debería el círculo moral incluir a todos los seres humanos y detenerse ahí? ¿Debería ampliarse para incluir también a los animales no humanos? ¿O debería en última instancia abarcar incluso a las plantas y al entorno natural?

El utilitarismo ofrece una respuesta clara a esta pregunta: deberíamos extender nuestra preocupación moral a todos los seres sintientes, es decir, a todos los individuos capaces de experimentar estados de conciencia positivos o negativos. Esto incluye a los humanos y probablemente a muchos animales no humanos, pero no a las plantas u otras entidades no sintientes. Este punto de vista se denomina a veces sentiocentrismo, ya que considera la sintiencia como la característica que da derecho a los individuos a ser objeto de la preocupación moral. Como justificación de esta perspectiva, Peter Singer escribe lo siguiente:

La capacidad de sufrir y disfrutar de las cosas es un prerrequisito para tener intereses, una condición que debe cumplirse antes de que podamos hablar de intereses de forma significativa. No tendría sentido decir que a una piedra no le interesa que un niño la patee por el camino. Una piedra no tiene intereses porque no puede sufrir. Nada de lo que le hagamos puede influir en su bienestar. Un ratón, en cambio, sí tiene interés en no ser atormentado, porque los ratones sufrirán si se los somete a un trato semejante…

Si un ser sufre, no puede haber justificación moral para negarse a tener en cuenta ese sufrimiento. Sea cual fuere la naturaleza del ser, el principio de igualdad exige que todo sufrimiento se considere equivalente a un sufrimiento similar —en la medida en que puedan hacerse comparaciones aproximadas— de cualquier otro ser. Si un ser no es capaz de sufrir, o de experimentar goce o felicidad, no hay nada que tener en cuenta. Por eso, el límite de la sintiencia… es la única frontera defendible de la preocupación por los intereses de los demás.8

Sobre esta base, ayudar a la sociedad a seguir ampliando el círculo de preocupación moral puede ser una prioridad para los utilitaristas. Por ejemplo, podemos procurar persuadir a la gente de que deben ayudar no sólo a los de su propio país, sino también a los del otro lado del mundo; no sólo a los de su propia especie, sino a todas las criaturas sintientes; y no sólo a las personas actualmente vivas, sino a todas aquellas en cuyas vidas puedan influir, incluidas las de las generaciones venideras.

Cosmopolitismo: ampliar el círculo moral en la dimensión geográfica

Según el utilitarismo, la distancia geográfica y la pertenencia a una nación no son intrínsecamente relevantes desde el punto de vista moral. Esto significa que, desde la óptica del utilitarismo, no tenemos motivos para discriminar a alguien por su lugar de residencia, su procedencia o su nacionalidad. Esto convierte al utilitarismo en un ejemplo de cosmopolitismo moral. Los partidarios del cosmopolitismo moral creen que si uno tiene los medios para salvar una vida en un país lejano, hacerlo importa tanto como salvar una vida cercana en el propio país; todas las vidas merecen la misma consideración moral, estén donde estén.

Por supuesto, la distancia geográfica entre una persona y su beneficiario puede tener una importancia instrumental: a menudo es más fácil ayudar a gente cercana que a gente lejana. Sin embargo, en un planeta cada vez más globalizado se ha vuelto mucho más fácil beneficiar incluso a quienes viven al otro lado del mundo. Y debido a las extremas desigualdades económicas a escala mundial, una unidad adicional de recursos beneficia mucho más a los habitantes de los países menos desarrollados que a los de países prósperos como Estados Unidos o el Reino Unido; potencialmente, entre 100 y 1000 veces más.9

Analizamos las implicaciones del cosmopolitismo para la acción en el artículo Actuar conforme al utilitarismo.

Antiespecismo: ampliar el círculo moral en la dimensión de la especie

El utilitarismo no sólo se preocupa por el bienestar de los seres humanos, sino también por el de los animales no humanos. En consecuencia, el utilitarismo rechaza el especismo: la práctica de dar a algunos individuos menos consideración moral que a otros o de tratarlos peor en razón de su pertenencia a una especie determinada. Considerar moralmente a los individuos es simplemente tener en cuenta la medida en que se verán afectados por el comportamiento de uno, ya sea por acción o por omisión. Como lo describe Peter Singer:

Los racistas infringen el principio de igualdad al dar mayor peso a los intereses de los miembros de su propia raza cuando hay un choque entre sus intereses y los de otra raza. Los sexistas infringen el principio de igualdad al favorecer los intereses de su propio sexo. Del mismo modo, los especistas permiten que los intereses de su propia especie prevalezcan sobre los intereses superiores de los miembros de otras especies. El patrón es idéntico en cada caso.10

Cada vez hay más consenso científico en que muchos animales no humanos son sintientes,11 aunque no necesariamente en el mismo grado. Esto incluye a la mayoría de los vertebrados, como los mamíferos, las aves y los peces, y potencialmente a algunos invertebrados, como los octópodos o incluso los insectos. Estos animales pueden sentir placer y dolor, y estas experiencias son moralmente relevantes desde una perspectiva utilitarista.

Rechazar el especismo implica dar igual consideración moral al bienestar de todos los individuos, pero no implica tratar a todas las especies por igual. La pertenencia a una especie no es moralmente relevante en sí misma, pero los individuos que pertenecen a especies diferentes pueden diferir en otros aspectos que sí son moralmente importantes. En particular, es probable que los individuos de distintas especies no tengan la misma capacidad para la experiencia consciente, por ejemplo, debido al diferente número de neuronas en sus cerebros. Dado que los utilitaristas creen que sólo la sintiencia tiene importancia moral en sí misma, la preocupación utilitarista por los individuos es proporcional a su capacidad de experiencia consciente. Es perfectamente coherente con el rechazo del especismo decir que deberíamos considerar por igual el bienestar de un pez y de un chimpancé, sin implicar que tengan la capacidad de sufrir en el mismo grado.

Desde la perspectiva utilitarista, lo que importa intrínsecamente es el bienestar de los seres sintientes individuales, no la supervivencia de la especie, ni la integridad del ecosistema, ni de la naturaleza. Los individuos pueden sufrir, mientras que una “especie”, un “ecosistema” o la “naturaleza” no. Por supuesto, la supervivencia de las especies y la integridad de los ecosistemas y de la naturaleza pueden tener una importancia instrumental, en la medida en que contribuyen al bienestar de los individuos.

El especismo subyace a la actual explotación de miles de millones de animales no humanos por parte de los humanos. Los animales se consideran en general como recursos: se crían y matan para comida, se usan para vestimenta, o se explotan por su trabajo. Estas prácticas a menudo hacen que los animales experimenten un sufrimiento extremo.

Sin embargo, no todo el sufrimiento animal es causado por los humanos. Hay muchos más animales salvajes que viven en la naturaleza que animales domésticos.12 En contraste con una idea romántica de la naturaleza muy difundida, los animales salvajes suelen tener vidas cortas en entornos hostiles y sufren por múltiples causas, como la depredación, las enfermedades, los parásitos, la exposición al calor o frío extremos, el hambre, la sed y la desnutrición. En este contexto, sería un error considerar sólo el bienestar de los animales domésticos que sufren por la actividad humana, ignorando el bienestar de los animales salvajes que sufren simplemente porque los humanos permiten que se les haga daño.13 Como ya se ha señalado, para el utilitarista, la distinción entre hacer daño y permitirlo es irrelevante. Por lo tanto, desde el punto de vista utilitarista, deberíamos preocuparnos por igual por el bienestar de los animales domésticos y salvajes. Dicho esto, actualmente sabemos poco sobre cómo mejorar sistemáticamente la vida de los animales salvajes. En cambio, reducir el consumo de carne procedente de la cría intensiva o mejorar las condiciones de vida en las granjas industriales supondría claramente enormes beneficios para los animales.14

Discutimos las implicaciones de rechazar el especismo para la acción ética en el artículo Actuar conforme al utilitarismo.

Largoplacismo: ampliar el círculo moral en la dimensión temporal

Desde la perspectiva utilitarista, la gente del otro lado del planeta no importa menos que la gente más cercana geográficamente. Del mismo modo, el utilitarismo considera que el bienestar de las generaciones futuras no es menos importante que el bienestar de los que viven hoy simplemente porque aquellas estén lejos en el tiempo.

Que aparentemente estemos en una en una etapa tan temprana de la historia de la civilización es un hecho sorprendente. Tenemos 5000 años de historia, pero ¿cuántos años nos quedan por delante? Si sólo duramos tanto como una especie típica de mamífero, aún nos quedarían 200 000 años. Pero los humanos no somos mamíferos típicos y, si logramos preservar nuestra especie, aún nos quedan mil millones de años hasta que la Tierra deje de ser habitable,15 y otros planetas y sistemas solares seguirán existiendo durante billones de años. Incluso desde la perspectiva más conservadora, hemos progresado a lo largo de una pequeña fracción de la historia. Si la saga de la humanidad fuera una novela, aún estaríamos en la primera página.

El número de personas que podría haber en el futuro supera astronómicamente al de las personas de la generación presente. Esto sugiere que, para ayudar a la gente en general, la principal preocupación no debería ser meramente ayudar a la generación presente, sino asegurar que el futuro a largo plazo sea el mejor posible.16 Esta idea se conoce como largoplacismo fuerte:

El largoplacismo fuerte es la idea de que el determinante más importante del valor de nuestras acciones de hoy es el efecto que tienen en el futuro a largo plazo.

El largoplacismo fuerte está implícito en la mayoría de las formas plausibles de utilitarismo17 si asumimos que algunas de nuestras acciones pueden influir significativamente en el futuro a largo plazo y que podemos estimar qué efectos son positivos y cuáles negativos. Por ejemplo, hay riesgos para la supervivencia de la raza humana, como la guerra nuclear, el cambio climático extremo, los patógenos artificiales y la inteligencia artificial general.18 Si creemos que la supervivencia de la raza humana tiene un valor positivo, reducir el riesgo de extinción humana es una forma de influir positivamente en el futuro a largo plazo.19 Un debate sobre el largoplacismo excedería los límites de este capítulo, pero para obtener más información, recomendamos leer este artículo académico.20

Discutimos las implicaciones morales del largoplacismo para la acción en el artículo Actuar conforme al utilitarismo.

Respetar las normas morales de sentido común

A veces la gente confunde el utilitarismo con la afirmación de que uno siempre debería calcular explícitamente el valor esperado de cada acción posible, y realizar la acción que obtenga la puntuación más alta. De hecho, el utilitarismo no recomienda adoptar este procedimiento de decisión “utilitarista ingenuo”.21

En cambio, como teoría multinivel, el utilitarismo especifica objetivos morales —criterios para juzgar objetivamente los méritos morales de una acción, dados todos los detalles fácticos relevantes—22 pero deja abierta la cuestión de qué tipo de procedimiento de decisión deberíamos intentar seguir en la práctica. Al fin y al cabo, es una cuestión empírica abierta cuál es la mejor manera de alcanzar realmente los objetivos morales especificados.

El utilitarismo implica que debemos utilizar el procedimiento de decisión que mejor nos ayude a promover el bienestar general (en términos esperados). Aunque no podemos estar seguros de qué procedimiento de decisión satisface este criterio, podemos hacer algunas conjeturas. Como afirman los psicólogos Stefan Schubert y Lucius Caviola en Virtues for Real-World Utilitarians , la mejor forma de promover el bienestar general es perseguir ambiciosamente acciones que ayuden eficazmente a los demás, minimizando al mismo tiempo los riesgos de consecuencias negativas mediante la adopción de virtudes y restricciones de sentido común.

Es un hecho ampliamente reconocido que los humanos no somos fiables a la hora de calcular utilidades,23 especialmente cuando entran en conflicto con reglas y heurísticas generalmente fiables (como las que prohíben dañar a otras personas). En consecuencia, no podemos tomar al pie de la letra los cálculos de valor esperado que infringen las normas. Incluso si has calculado que asesinar a tu rival daría lugar, de algún modo, a un bien mayor, deberías ser muy escéptico de que esto sea realmente así. Al fin y al cabo, si no crees realmente que en general sería mejor para los demás (en situaciones similares) hacer lo mismo, entonces debes creer que la mayor parte de los cálculos que favorecen el asesinato han salido mal. Por lo tanto, si no tienes evidencia especial (que rompa la simetría) que demuestre que tú, en particular, eres la rara excepción a esta regla, entonces debes concluir que es sumamente probable que tus propios cálculos a favor del asesinato hayan salido mal.24 De modo que, en ausencia de evidencia especial de este tipo, debes concluir que romper las reglas tiene un valor esperado menor, a pesar de tus cálculos iniciales en sentido contrario.

Por otro lado, podemos estar más seguros de que nuestras acciones tienen un valor esperado positivo cuando tratamos de ayudar a los demás de maneras que estén respaldadas por evidencia sólida y minimicen el riesgo de consecuencias negativas.25 En el largo plazo, deberíamos esperar que el altruismo honesto y cooperativo haga más bien que los planes inescrupulosos para lograr el “bien mayor”, porque (i) históricamente, quienes persiguieron estos planes por lo general hicieron más mal que bien, (ii) la gente, con razón, no confía en estas personas, y (iii) en un mundo complejo, es difícil hacer mucho sin la confianza y la cooperación de los demás. Si esto es así, entonces el altruismo honesto y cooperativo tiene sistemáticamente un valor esperado más alto que la planificación inescrupulosa, y debería ser preferido por los utilitaristas.

En resumen, el utilitarismo no nos dice que calculemos constantemente las utilidades y sigamos ciegamente lo que recomienden nuestros cálculos. Eso sería contraproducente, lo que es contrario al espíritu pragmático de la teoría. Al contrario, el utilitarismo recomienda procedimientos de decisión basados en su valor esperado. Cuando no estamos seguros, debemos guiarnos por el procedimiento de decisión que más razonablemente pueda producir mejores resultados (a la luz de todo lo que sabemos sobre los sesgos humanos y las limitaciones cognitivas). Esto significa seguir heurísticas o reglas empíricas generalmente fiables.

Como primera aproximación, un procedimiento de decisión utilitarista plausible podría llevarnos a26

  1. Buscar cualquier “oportunidad al alcance de la mano” para ayudar eficazmente a los demás sin causar daño a terceros,
  2. Inculcar virtudes para los utilitaristas del mundo real (incluyendo el respeto por las normas morales de sentido común), y
  3. En un momento de calma, reflexionar sobre cómo podríamos priorizar y dirigir mejor nuestros esfuerzos morales, por ejemplo, buscando análisis de costo-beneficio de expertos y otros tipos de evidencia para fundamentar mejor nuestros juicios generales de valor esperado.27

Conclusión

El utilitarismo tiene importantes implicaciones sobre cómo debemos pensar en llevar una vida ética.

La teoría rechaza que exista una diferencia moral intrínseca entre hacer daño y permitirlo. Esta posición contribuye a hacer más exigente el utilitarismo, ya que implica que siempre que decidimos no ayudar a otra persona somos cómplices de su miseria.

Desde el punto de vista del utilitarismo, deberíamos elegir cuidadosamente en qué problemas morales trabajar y con qué medios, basándonos en dónde podemos hacer el mayor bien. Deberíamos extender nuestra preocupación moral a todos los seres sintientes, es decir, a todos los individuos capaces de experimentar felicidad o sufrimiento. El utilitarismo nos insta a considerar el bienestar de todos los individuos, independientemente de la especie a la que pertenezcan, el país en que vivan y el momento en que existan.

Aunque los utilitaristas deben tratar de dedicar vidas a hacer el mayor bien posible, en la práctica deben hacerlo respetando las virtudes morales de sentido común como la honestidad, la integridad, la justicia y el cumplimiento de la ley. Hay razones por las que no vemos a utilitaristas robando bancos para donar lo recaudado: estas prohibiciones morales de sentido común ayudan a que la sociedad funcione sin problemas, y cualquier cálculo ingenuo de que infringir una prohibición de este tipo promovería un bien mayor es casi siempre erróneo.

El siguiente capítulo analiza algunas teorías rivales importantes que pueden solaparse significativamente con el utilitarismo en la práctica.


Cómo citar esta página

MacAskill, W., Meissner, D., y Chappell, R.Y. (2023). Utilitarismo y ética práctica. En R.Y. Chappell, D. Meissner, y W. MacAskill (eds.), Introducción al utilitarismo, <https://www.utilitarismo.net/utilitarismo-y-etica-practica>, visitado .

¿Quieres mejorar el mundo?

Aprende a poner en práctica el utilitarismo:

Actuar conforme al utilitarismo

Recursos y más información

¿Hay alguna diferencia entre hacer daño y permitirlo?

La ampliación del círculo moral

Cosmopolitismo: ampliar el círculo moral en la dimensión goegráfica

Antiespecismo: ampliar el círculo moral en la dimensión de la especie

Largoplacismo: ampliar el círculo moral en la dimensión temporal

Respetar las normas morales de sentido común


  1. 📘 Henry Sidgwick (1907). The Methods of Ethics (7). London: Macmillan. p. 414.  ↩︎

  2. Para un análisis de las exigencias de la moral en el contexto de la mitigación de la pobreza global, véase 📘 Peter Singer (2009). The Life You Can Save: Acting Now to End World Poverty. New York: Random House.  ↩︎

  3. 💻 (2010). GiveWell.  ↩︎

  4. 📃 Jonathan Z. Berman et al. (2018). Impediments to Effective Altruism: The Role of Subjective Preferences in Charitable Giving Psychological Science, 29(5). 834–844. ↩︎

  5. Los argumentos a favor de la neutralidad respecto a las causas se exponen en 💻 (2016). Sentience Politics.  ↩︎

  6. 📃 Toby Ord (2013). The Moral Imperative Toward Cost-Effectiveness in Global Health Center for Global Development↩︎

  7. Cf. 📘 Peter Singer (1981). The Expanding Circle: Ethics and Sociobiology. Oxford: Clarendon Press.  ↩︎

  8. 📘 Peter Singer (2011). Practical Ethics (3). Cambridge: Cambridge University Press. p. 50.  ↩︎

  9. Cf. 📘 William MacAskill (2015). Doing Good Better: How Effective Altruism Can Help You Make a Difference. New York: Random House. cap. 1.  ↩︎

  10. 📘 Peter Singer (2002). Animal Liberation (3). New York: HarperCollins. p. 9. De hecho, hay evidencia psicológica que sugiere que el especismo va de la mano de otras actitudes discriminatorias como el racismo, el sexismo y la homofobia: Cf. 📃 Lucius Caviola, Jim A. C. Everett & Nadira S. Faber (2019). The Moral Standing of Animals: Towards a Psychology of Speciesism Journal of personality and social psychology, 116(6). 1011–1029. ↩︎

  11. Por ejemplo, véase 💻 Philip Low et al. (2012). Francis Crick Memorial Conference.  ↩︎

  12. 💻 Brian Tomasik (2019). Brian Tomasik’s Blog.  ↩︎

  13. Hay un debate académico en curso sobre la importancia moral del bienestar de los animales salvajes. Por ejemplo, véanse 📃 Yew-Kwang Ng (1995). Towards Welfare Biology: Evolutionary Economics of Animal Consciousness and Suffering Biology and philosophy, 10(3). 255–285.; 📖 Jeff McMahan (2015). The Moral Problem of Predation In Chignell, A., Cuneo, T. & Halteman, M. (Eds.), Philosophy Comes to Dinner: Arguments About the Ethics of Eating. (pp. 268–294) Routledge. ; 📃 Ole Martin Moen (2016). The Ethics of Wild Animal Suffering Etikk i praksis - Nordic Journal of Applied Ethics(1). 91–104. ↩︎

  14. Para profundizar en este tema recomendamos esta entrevista a la investigadora Persis Eskander: 💻 Robert Wiblin & Keiran Harris (2019). 80,000 Hours.  ↩︎

  15. 📖 Fred C. Adams (2008). Long-Term Astrophysical Processes In Bostrom, N. & Ćirković, M. (Eds.), Global Catastrophic Risks. (pp. 33–47) Oxford University Press.  ↩︎

  16. Para un debate sobre esta idea y sus supuestos subyacentes, véase 🎓 Nick Beckstead (2013). On the Overwhelming Importance of Shaping the Far Future. Rutgers University. ↩︎

  17. Cf. 📜 Hilary Greaves & William MacAskill (2021). The Case for Strong Longtermism (GPI Working Paper No. 5-2021). Global Priorities Institute, University of Oxford sec. 4.1.  ↩︎

  18. Para un análisis detallado de los riesgos existenciales y la importancia moral del futuro a largo plazo de la humanidad, véase 📘 Toby Ord (2020). The Precipice: Existential Risk and the Future of Humanity. London: Bloomsbury Publishing.  ↩︎

  19. Para un artículo clásico sobre la importancia de reducir el riesgo existencial, véase 📃 Nick Bostrom (2013). Existential Risk Prevention as Global Priority Global Policy, 4(1). 15–31. ↩︎

  20. Nótese que el profesor William MacAskill, coautor de este sitio web, también es coautor de este artículo. ↩︎

  21. Como explica el capítulo 2: “que sepamos, nadie ha defendido nunca el utilitarismo de un solo nivel, ni siquiera los utilitaristas clásicos. Calcular deliberadamente las consecuencias esperadas de nuestras acciones es propenso a errores y se corre el riesgo de caer en la parálisis de la decisión.” ↩︎

  22. Estos detalles podrían estipularse simplemente en un ejemplo hipotético. En los casos de la vida real, nuestra incertidumbre sobre los detalles relevantes de los hechos debería llevarnos a tener la misma incertidumbre sobre nuestros veredictos y evaluaciones morales. ↩︎

  23. Véase, por ejemplo, 📖 J. L. Mackie (1984). Rights, Utility, and Universalization In Frey, R. (Eds.), Utility and Rights. (pp. 86–105) University of Minnesota Press.  ↩︎

  24. En particular, no puedes tomar al pie de la letra tu inclinación a pensar que hay razones especiales en tu caso, si crees que la mayoría de las personas en situaciones subjetivamente similares se equivocan al considerar que tienen tales razones especiales. La evidencia que rompe la simetría es aquella que establece de forma distintiva tu fiabilidad en comparación con la de otras personas con creencias similares (pero, en su caso, equivocadas). Nótese que es muy difícil obtener este tipo de evidencia. ↩︎

  25. Eso no quiere decir que debamos optimizar estrictamente la confianza en el valor esperado positivo: algo que es apenas bueno con certeza en términos esperados puede valer menos la pena que algo que tiene un alto valor esperado casi con certeza, incluso si hay un ligero riesgo de que se haya pasado por alto algo que significaría que la acción es en realidad ligeramente negativa en términos esperados. En principio, esa incertidumbre podría dar lugar a un valor esperado más alto “considerando todos los factores”. La cuestión es que los motivos para dudar de un veredicto positivo de nuestros cálculos iniciales de valor esperado deberían llevarnos racionalmente a asignar un valor esperado más bajo (y en algunos casos, incluso negativo) a esa opción, en términos generales. Y en la práctica, parece que a menudo deberíamos tener una fuerte creencia a priori de que las acciones que vulneran los derechos son netamente negativas, y que esta presunción no quedaría invalidada por un cálculo aproximado y poco fiable. ↩︎

  26. Estas afirmaciones no están, estrictamente hablando, integradas en el utilitarismo como teoría moral fundamental. Más bien, estamos especulando sobre la cuestión adicional de qué procedimiento de decisión tiene el mayor valor esperado en circunstancias típicas. (Obsérvese que, en principio, la respuesta puede diferir para distintos individuos en distintas circunstancias. Nada en el utilitarismo exige uniformidad, cuando no redunda en el mayor beneficio.) ↩︎

  27. Esto podría o no incluir la realización de algunos “cálculos de servilleta” para estimar el valor esperado. Aun así, para maximizar realmente el valor esperado, estos cálculos ingenuos deben atenuarse con restricciones contra la planificación inescrupulosa, dado nuestro juicio previo de que lo más probable es que esta última sea contraproducente. Es decir, si calculamos un “valor esperado” explícito ligeramente superior para un acto que para otro, pero el primero implica una infracción flagrante de las normas, probablemente deberíamos concluir que la segunda opción (más segura) es realmente mejor en términos esperados. ↩︎