¡ChatGPT tiene precisiones perezosas y sucias cuando se trata de matemáticas!

¡¡¡Un día en la vida de un programador perezoso para pruebas perturbativas!!! ¡Convoquemos a la calculadora glorificada, ala, ChatGPT (o Wolfram Alpha)! Solía ​​hacer trampa a veces con Wolfram en los días de descanso. Pero ahora ChatGPT se hace cargo de las pruebas más sencillas.

Le pedí a ChatGPT que me diera dos vectores ortogonales de dimensión 20. Obtuve los vectores.

Estos son los vectores que obtuve de ChatGPT:

v1 = [0.88201679, -0.05758137, -0.42121971, -0.18530611, -0.09016195, -0.19128234, -0.0379655 , 0.13143978, 0.21425105, 0.2246096 , -0.12504853, -0.12579444, -0.06630113, -0.13681961, -0.05066335, 0.07013917, 0.05883755, -0.01472815, -0.14948907, -0.03506877]

v2 = [-0.08950484, 0.28038171, -0.08425878, -0.00887197, 0.02787388, -0.08632868, 0.26158391, 0.0090745 , -0.05498919, -0.10617688, 0.12980132, -0.19480344, 0.10695802, -0.05316702, -0.2302231 , 0.00729124, -0.05123817, 0.0780862 , 0.0232098 , 0.02447112]

y el producto interior de estos vectores es -0.07618303227161559

PRECAUCIÓN: El ÚNICO problema es que estos dos vectores dan como resultado -0.07 como producto punto y, por lo tanto, no son lo suficientemente buenos para lo que estoy trabajando como precisión de ortogonalidad. -0.07 está técnicamente más cerca de -0.1, ¡que está muy, muy, muy lejos de cero!

Así que volverse perezoso con ChatGPT es un poco peligroso para la precisión o la exactitud.

Si tuviera que hacer esto yo mismo, habría hecho:
# Generar un vector aleatorio de dimensión n
v1 = np.aleatorio.rand(n)
# Generar un vector aleatorio de dimensión n que sea ortogonal a v1
v2 = np.aleatorio.rand(n)
v2 -= v1 * np.punto(v2, v1) / np.punto(v1, v1)
v2 /= np.linalg.norm(v2)

Con mi código anterior, obtienes:
v1= [0.23246931 0.69022428 0.37562544 0.66935077 0.1359036 0.96530615 0.18023099 0.46983999 0.12821443 0.80855697 0.38360875 0.85697724 0.53610547 0.02802696 0.45083544 0.71838969 0.02250539 0.6686959 0.9551404 0.74936729]

v2 = [-0.02449058 0.2893198 0.21850898 -0.0676647 0.28934451 0.06491934 0.0541631 0.05861308 0.46143552 -0.05489555 0.32269301 -0.2848697 0.26762545 0.29952854 -0.196236 0.01960195 0.23055467 -0.28461804 -0.18155913 0.02208541]

cuyo producto interior es 2.220446049250313e-16.

La forma de interpretar eso es un punto cero seguido de 16 ceros y 2. Esto está muy cerca de cero. Esto es más útil que lo que me dio ChatGPT.

Si tuviera que generar algo mucho más preciso y extenderlo a una matriz ortogonal, primero tengo que entender los siguientes pasos:

Tus habilidades de programación se deteriorarán en un año si confías en ChatGPT. Uno olvidará la intuición detrás de la ortogonalidad saltándose los cinco pasos anteriores. ¡Uno probablemente ni siquiera codificará!

¡Suspiro! He decidido mantenerme alejado de ChatGPT por estos motivos.

¡Lo que comenzó como un día de descanso se convirtió en otro blog de ChatGPT!

[post_relacionado id=»1776″]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio