¡¡¡Un día en la vida de un programador perezoso para pruebas perturbativas!!! ¡Convoquemos a la calculadora glorificada, ala, ChatGPT (o Wolfram Alpha)! Solía hacer trampa a veces con Wolfram en los días de descanso. Pero ahora ChatGPT se hace cargo de las pruebas más sencillas.
Le pedí a ChatGPT que me diera dos vectores ortogonales de dimensión 20. Obtuve los vectores.
Estos son los vectores que obtuve de ChatGPT:
v1 = [0.88201679, -0.05758137, -0.42121971, -0.18530611, -0.09016195, -0.19128234, -0.0379655 , 0.13143978, 0.21425105, 0.2246096 , -0.12504853, -0.12579444, -0.06630113, -0.13681961, -0.05066335, 0.07013917, 0.05883755, -0.01472815, -0.14948907, -0.03506877]
v2 = [-0.08950484, 0.28038171, -0.08425878, -0.00887197, 0.02787388, -0.08632868, 0.26158391, 0.0090745 , -0.05498919, -0.10617688, 0.12980132, -0.19480344, 0.10695802, -0.05316702, -0.2302231 , 0.00729124, -0.05123817, 0.0780862 , 0.0232098 , 0.02447112]
y el producto interior de estos vectores es -0.07618303227161559
PRECAUCIÓN: El ÚNICO problema es que estos dos vectores dan como resultado -0.07 como producto punto y, por lo tanto, no son lo suficientemente buenos para lo que estoy trabajando como precisión de ortogonalidad. -0.07 está técnicamente más cerca de -0.1, ¡que está muy, muy, muy lejos de cero!
Así que volverse perezoso con ChatGPT es un poco peligroso para la precisión o la exactitud.
Si tuviera que hacer esto yo mismo, habría hecho:
# Generar un vector aleatorio de dimensión n
v1 = np.aleatorio.rand(n)
# Generar un vector aleatorio de dimensión n que sea ortogonal a v1
v2 = np.aleatorio.rand(n)
v2 -= v1 * np.punto(v2, v1) / np.punto(v1, v1)
v2 /= np.linalg.norm(v2)
Con mi código anterior, obtienes:
v1= [0.23246931 0.69022428 0.37562544 0.66935077 0.1359036 0.96530615 0.18023099 0.46983999 0.12821443 0.80855697 0.38360875 0.85697724 0.53610547 0.02802696 0.45083544 0.71838969 0.02250539 0.6686959 0.9551404 0.74936729]
v2 = [-0.02449058 0.2893198 0.21850898 -0.0676647 0.28934451 0.06491934 0.0541631 0.05861308 0.46143552 -0.05489555 0.32269301 -0.2848697 0.26762545 0.29952854 -0.196236 0.01960195 0.23055467 -0.28461804 -0.18155913 0.02208541]
cuyo producto interior es 2.220446049250313e-16.
La forma de interpretar eso es un punto cero seguido de 16 ceros y 2. Esto está muy cerca de cero. Esto es más útil que lo que me dio ChatGPT.
Si tuviera que generar algo mucho más preciso y extenderlo a una matriz ortogonal, primero tengo que entender los siguientes pasos:
Tus habilidades de programación se deteriorarán en un año si confías en ChatGPT. Uno olvidará la intuición detrás de la ortogonalidad saltándose los cinco pasos anteriores. ¡Uno probablemente ni siquiera codificará!
¡Suspiro! He decidido mantenerme alejado de ChatGPT por estos motivos.
¡Lo que comenzó como un día de descanso se convirtió en otro blog de ChatGPT!
[post_relacionado id=»1776″]